JP2022502803A - Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms - Google Patents

Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms Download PDF

Info

Publication number
JP2022502803A
JP2022502803A JP2021541326A JP2021541326A JP2022502803A JP 2022502803 A JP2022502803 A JP 2022502803A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2022502803 A JP2022502803 A JP 2022502803A
Authority
JP
Japan
Prior art keywords
user
data
emotional
module
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021541326A
Other languages
Japanese (ja)
Other versions
JPWO2020058942A5 (en
Inventor
カーティス、スティーブ
Original Assignee
カーティス、スティーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カーティス、スティーブ filed Critical カーティス、スティーブ
Publication of JP2022502803A publication Critical patent/JP2022502803A/en
Publication of JPWO2020058942A5 publication Critical patent/JPWO2020058942A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4857Indicating the phase of biorhythm
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)

Abstract

感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法を開示する。方法は、ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。【選択図】図1Integrate emotional data into social network platforms and disclose systems and methods for sharing emotional data on social network platforms connected through communication networks. The method comprises collecting user biorhythm data through a wearable user device. The method comprises receiving the user's biorhythm data through a computing device communicably connected to the wearable user device on a communication network. The method involves integrating emotional data through an integration module. The method comprises a step of determining a user's emotional state through an emotional state determination module. The method comprises a step of analyzing and displaying the user's emotional data in real time through the emotional data display module. [Selection diagram] Fig. 1

Description

[0001]本発明は、感情データをソーシャルネットワークプラットフォームに統合して、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めるシステムおよび方法に関し、特に、感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法に関する。 [0001] The present invention relates to systems and methods that integrate emotional data into a social network platform to enhance communication between multiple users and enhance human connectivity and awareness between users, in particular the emotional data social network. Systems and methods for integrating into the platform and sharing emotional data on social network platforms.

[0002]様々なソーシャルネットワークプラットフォームの出現により、人々は、インターネット上で膨大な時間を費やして、他の接続されたユーザと仮想的に対話する。本明細書は、ユーザの精神状態を評価して、ユーザの周囲で起こる様々な活動に対するユーザの反応を理解することができることを認識する。精神状態は、幸福から悲しみまで、満足から心配まで、興奮から平穏までのような広い範囲を含む。これらの精神状態は、交通渋滞中のフラストレーション、並んでいる間の退屈、1杯のコーヒーを待っている間の焦燥感のような毎日の出来事に応答して、さらには人々が自分のコンピュータおよびインターネットと対話するときに経験される。個人は、他者の精神状態を評価し理解することに基づいて、かなり知覚し、共感するようになるかもしれないが、精神状態の自動評価は、はるかに困難である。共感する人は、他の人が不安であるか又は喜んでいると知覚し、それに応じて応答することができる。ある人が別の人の感情状態を知覚する能力および手段は、要約することが非常に困難であるかもしれず、「直感」を有するものとして伝達されることが多い。 [0002] With the advent of various social network platforms, people spend enormous amounts of time on the Internet interacting virtually with other connected users. It is recognized that the present specification can evaluate a user's mental state and understand the user's reaction to various activities occurring around the user. Mental states range from happiness to sadness, from satisfaction to anxiety, from excitement to peace. These mental states respond to daily events such as frustration during traffic jams, boredom while lining up, frustration while waiting for a cup of coffee, and even people on their computers. And experienced when interacting with the Internet. Individuals may become quite perceptive and empathetic based on assessing and understanding the mental state of others, but automatic assessment of mental state is much more difficult. Those who sympathize can perceive that others are anxious or happy and respond accordingly. The ability and means by which one person perceives another person's emotional state can be very difficult to summarize and is often transmitted as having "intuition."

[0003]個人または人々のグループの理解を助けるために、混乱、集中、および心配のような多くの精神状態を識別できる。人々は、大災害を目撃した後のように、恐怖または不安で集合的に応答することができる。同様に、人々は、彼らのスポーツチームが勝利を得たときのように、幸せな熱意で集合的に応答することができる。ある表情および頭部ジェスチャ(head gestures)を使用して、人が体験している精神状態を識別することができる。顔の表情に基づく精神状態の評価では、限られた自動化が行われている。ある生理学的条件は、人の心理状態を知らせる指標を提供することができ、ポリグラフテストのようにおおざっぱな方法で使用されている。 [0003] Many mental states such as confusion, concentration, and anxiety can be identified to aid understanding of individuals or groups of people. People can respond collectively with fear or anxiety, such as after witnessing a catastrophe. Similarly, people can respond collectively with happy enthusiasm, as when their sports team wins. Certain facial expressions and head gestures can be used to identify the mental state a person is experiencing. There is limited automation in the evaluation of mental states based on facial expressions. Certain physiological conditions can provide indicators of a person's psychological state and are used in rough manners such as polygraph tests.

[0004]同様に、人々は、現在、写真、ウェブサイト、およびこれらに類するもののような様々なソーシャルメディアに応答して、即時かつ連続的なフィードバックを提供する能力を有する。そのようなフィードバックは、コンピュータ、タブレット、スマートフォン、およびインターネットにアクセスする他のデバイス上で提供されることができる。例えば、「いいね」は、肯定的なフィードバックを与えるか、または、人が人気のあるソーシャルメディアサイトFacebook(登録商標)上で関心のあるものを連想する方法である。特に、Facebook(登録商標)上の「いいね」ボタンは、Facebook(登録商標)上のほとんどのコンテンツを見た後にユーザがクリックすることができるボタンであり、その後、「友人」にニュースフィードで報告される。Facebook(登録商標)に関連しないウェブサイトも、「いいね」ボタンを使用してもよく、これにより、ウェブサイト訪問者はボタンをクリックして、彼/彼女の友人に、彼らがサイトを好むことを知らせることができる。例えば、ウェブサイトの「いいね」ボタンをクリックした後、ポップアップは、Facebook(登録商標)へのログイン(または、まだメンバーでない場合はサインアップ)を要求し、ユーザのFacebook(登録商標)ページ上の投稿は、彼/彼女の友人に、彼/彼女がサイトを好むことを知らせる。スマートフォンのようなモバイルデバイス上で使用されるとき、「いいね」ボタンは、単に、ボタンが押されたときにユーザをFacebook(登録商標)に連れて行くだけの、電話上の統合ハードウェア「Facebook(登録商標)」ボタンである。 [0004] Similarly, people are now capable of providing immediate and continuous feedback in response to various social media such as photos, websites, and the like. Such feedback can be provided on computers, tablets, smartphones, and other devices that access the Internet. For example, "Like" is a way to give positive feedback or associate something of interest on the popular social media site Facebook®. In particular, the "Like" button on Facebook® is a button that the user can click after viewing most of the content on Facebook® and then to "Friends" in the news feed. Will be reported. Websites that are not related to Facebook® may also use the Like button, which allows website visitors to click the button and tell his / her friends that they like the site. I can tell you that. For example, after clicking the Like button on a website, a pop-up will require you to log in to Facebook (or sign up if you are not already a member) and on your Facebook page. Posts inform his / her friends that he / she likes the site. When used on mobile devices such as smartphones, the Like button is an integrated hardware on the phone that simply takes the user to Facebook® when the button is pressed. Facebook® button.

[0005]同様に、コンピュータまたはモバイルデバイス上の「Pin It」ボタンは、ユーザが、ウェブの周囲から画像およびビデオを取り込み、それらをユーザによって作成されたオンラインピンボードに追加することを可能にする。他のユーザは、ピンボード、コメント、および「リピン(re−pin)」を見ることができる。人々がモバイルデバイスを使用して彼らの環境と対話することを可能にする能力も導入されている。例えば、ロケーションベースのソーシャルネットワーキングウェブサイトは、ユーザが、アプリケーションが近くに位置する場所のリストから選択することによって、モバイルウェブサイト、テキストメッセージング、またはデバイス特有のアプリケーションを使用する場所で「チェックイン」することを可能にする。ロケーションは、モバイルデバイス中のGPSハードウェア、またはアプリケーションによって提供されるネットワークロケーションに基づいている。各チェックインは、ユーザポイントまたは他のタイプの報酬を与える。 [0005] Similarly, a "Pin It" button on a computer or mobile device allows the user to capture images and videos from around the web and add them to the online pinboard created by the user. .. Other users can see the pinboard, comments, and "re-pin". The ability to allow people to interact with their environment using mobile devices has also been introduced. For example, location-based social networking websites "check in" where users use mobile websites, text messaging, or device-specific applications by selecting from a list of places where the application is located nearby. Allows you to. The location is based on the GPS hardware in the mobile device, or the network location provided by the application. Each check-in rewards user points or other types of rewards.

[0006]テクノロジーにおけるこれらの進歩によってでも、ユーザ経験、有効性、およびソーシャルメディア、ロケーション、または経験のユーザビリティを測定および評価する能力は制限されている。実際、ウェブサイトおよび他の対話型インターネットおよびソフトウェア媒体のユーザ経験、有効性、およびユーザビリティを測定または評価するための現在の方法論は、従来の自己報告、すなわち、ユーザが「いいね」ボタンを使用し、エラー、バイアス、または低コンプライアンスの影響下にあるかもしれないソーシャルメディアに対する彼/彼女の実際の応答を正確に反映することに依存することにこれまで限定されてきた。 [0006] Even with these advances in technology, the ability to measure and evaluate user experience, effectiveness, and usability of social media, location, or experience is limited. In fact, the current methodology for measuring or assessing user experience, effectiveness, and usability of websites and other interactive internet and software media is traditional self-reporting, ie, users using the Like button. However, it has been limited to relying on accurately reflecting his / her actual response to social media that may be under the influence of errors, biases, or low compliance.

[0007]ソーシャルネットワークサイトおよびサービスの人気および成長は、ここ数年にわたって劇的に増加している。現在のソーシャルネットワークサイトは、Facebook(登録商標)、Google+(登録商標)、Twitter(登録商標)、MySpace(登録商標)、YouTube(登録商標)、LinkedIn(登録商標)、Flicker(登録商標)、Jaiku(登録商標)、MYUBO(登録商標)、Bebo(登録商標)、およびこれらに類するものを含む。そのようなソーシャルネットワーキング(SNET)サイトは、通常、ウェブベースであり、ネットワークのメンバーによってアクセス可能なユーザプロフィールおよび/またはコンテンツのコレクションの周りに構成される。このようなソーシャルネットワークにおけるメンバーシップは、個人または個人のグループから構成され、個人または個人のグループは、一般に、プロフィールページによって表され、ソーシャルネットワーキングサービスによって決定されるように対話することを許可される。 [0007] The popularity and growth of social network sites and services has increased dramatically over the last few years. Current social network sites are Facebook®, Google+®, Twitter®, MySpace®, YouTube®, LinkedIn®, Flicker®, and Jaiku. Includes (registered trademark), MYUBO (registered trademark), Bebo (registered trademark), and the like. Such social networking (SNET) sites are typically web-based and are configured around a collection of user profiles and / or content accessible by members of the network. Membership in such social networks consists of individuals or groups of individuals, who are generally represented by profile pages and are allowed to interact as determined by social networking services. ..

[0008]多くの人気のあるソーシャルネットワーク、特にプロフィールに焦点を当てたソーシャルネットワークでは、活動は、メンバーがプロフィールを閲覧し、連絡先のネットワークにわたって活動、関心、意見、ステータス更新、オーディオ/ビデオコンテンツ等を通信および共有することを可能にするウェブページまたはソーシャル空間を中心とする。ソーシャルネットワーキングサービスはまた、メンバーがソーシャルネットワークの他のメンバーのある活動を追跡し、協力し、既存の友人、かつての知人、および同僚を探してつながり、他のメンバーとの新しいつながりを確立することを可能にするかもしれない。 [0008] In many popular social networks, especially those that focus on profiles, activities include activities, interests, opinions, status updates, audio / video content across the network of contacts where members view their profiles. Focus on web pages or social spaces that allow you to communicate and share such things. Social networking services also allow members to track and collaborate on certain activities of other members of the social network, find and connect with existing friends, former acquaintances, and colleagues, and establish new connections with other members. May be possible.

[0009]したがって、様々なセンサをコンピューティングデバイスに統合し、ソーシャルネットワークプラットフォームと協働し、「いいね」ボタンを除去して、それをすべての経験にわたる感情的な反応の連続ストリームで置き換えるような様々な機能を実行することができるシステムおよび方法が技術的に必要とされている。ユーザが無意識に自分の現在の経験、例えば、ウェブページ、「アプリ」、曲、ビデオ、ロケーション、または他の体験を好き(または嫌い)であるときを決定し、また、リアルタイムで、特に他のユーザの感情の情報に基づいて、ユーザのストレスレベルおよび幸福を遠隔監視する、スマートフォン、タブレット、および他のソーシャルメディア対応デバイスに組み込まれたアプリケーションの生体認証使用可能スイート(suite)も技術的に必要とされている。さらに、ソーシャルネットワークプラットフォーム上で共有される、またはメッセージング/オーディオ記録アプリケーション上で2人のユーザ間で私的に共有される投稿およびコンテンツに添付または表される他のユーザの感情データを見ることに応答して、バイオリズムを追跡する動的アプローチのためのシステムおよび方法を提供する必要がある。 [0009] Therefore, integrate various sensors into computing devices, work with social network platforms, remove the Like button and replace it with a continuous stream of emotional reactions across all experiences. There is a technical need for systems and methods that can perform a variety of functions. Determine when users unknowingly like (or dislike) their current experience, such as web pages, "apps", songs, videos, locations, or other experiences, and in real time, especially others. There is also a technical need for a suite of applications built into smartphones, tablets, and other social media-enabled devices that remotely monitor a user's stress levels and well-being based on user emotional information. It is said that. In addition, to see other users' emotional data attached to or represented in posts and content shared on social network platforms or privately shared between two users on messaging / audio recording applications. In response, there is a need to provide systems and methods for dynamic approaches to tracking biorhythms.

[0010]したがって、上記に鑑みて、当業界では、上述の欠点および不備に対処する必要性が長年にわたってある。 [0010] Therefore, in view of the above, there has been a long-standing need in the industry to address the above-mentioned shortcomings and deficiencies.

[0011]従来のおよび伝統的なアプローチのさらなる制限および欠点は、本出願の残りにおいて図面を参照して記載されるように、説明されるシステムと本開示のいくつかの態様との比較を通して当業者に明らかになるであろう。 [0011] Further limitations and disadvantages of conventional and traditional approaches are described here through comparisons of the systems described with some aspects of the present disclosure, as described with reference to the drawings in the rest of the application. It will be revealed to the trader.

[0012]感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するためのシステムが実質的に提供され、特許請求の範囲においてより完全に記載されるように、図面のうちの少なくとも1つに関連して示されるおよび/または説明される。 [0012] A system for integrating emotional data into a social network platform and sharing emotional data on social network platforms connected through communication networks is provided substantially and is described more fully in the claims. As shown and / or described in connection with at least one of the drawings.

[0013]本発明は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法を提供する。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。 [0013] The present invention provides a method for integrating emotional data into a social network platform and sharing the emotional data on a social network platform connected through a communication network. The method comprises collecting the user's biorhythm data through a wearable user device configured to be mounted on the user's body, close to the body, or placed (embeddable) in the user's body. .. The method comprises receiving the user's biorhythm data through a computing device communicatively connected to the wearable user device on a communication network. The method involves integrating emotional data through an integration module. The method comprises a step of determining a user's emotional state through an emotional state determination module. The method involves analyzing and displaying the user's emotional data in real time through the emotional data display module.

[0014]統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップから始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップを含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップを含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップを含む。 [0014] The integrated module performs multiple steps, starting with the step of collecting physiological data of at least one physiological characteristic of the user through a physiological data acquisition engine. The method comprises processing physiological data into at least one biological signal through a biological signal generation engine. The method comprises monitoring and measuring biological signals through a score calculation engine to determine at least one score for at least one of a user's emotions and a user's stress. The method integrates the score with at least one of social media posts, text conversations, and multimedia conversations (audio, video) associated with social network platforms through social integration and information overlay engines, and the user's emotions. And includes steps to overlay information about user stress.

[0015]感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップから始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を、関係付けるステップを含む。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップを含む。 [0015] When the emotional state determination module receives biorhythm data from a wearable user device through the analysis module, it performs a plurality of steps starting from the step of analyzing the user's emotional state. The method is one or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one or more to the post on the social network platform through the emotion module. Includes a step of associating the analyzed emotional state of the user corresponding to at least one of the responses of. The method comprises displaying a representation of the user's emotional state on a social network platform through a display module.

[0016]感情データ表示モジュールは、アルゴリズムモジュールを通して1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算するステップから始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップを含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。 [0016] The emotion data display module performs a plurality of steps starting from the step of analyzing the biorhythm data and calculating the user's emotion score in order to generate one or more insights through the algorithm module. The emotion score indicates the emotional state of the user during the dialogue. The method comprises a step of visually representing multiple emotional cycles during a particular amount of time about the user through a visualization module. The visualization module displays the user's insights and emotion scores on the computing device associated with the user.

[0017]一態様では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。 [0017] In one aspect, the emotion module facilitates the user initiating a command that associates the user's emotional state with the post shared by the user and the content shared with the user.

[0018]一態様では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。 [0018] In one aspect, the display module displays an emotional state representation of a post shared by the user and content shared with the user upon receiving a request command from the user.

[0019]一態様では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で表示する。 [0019] In one aspect, the visualization module uses at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols including a color or a moving shape. The data is displayed in multiple ways on at least one of a two-dimensional (2D) graph and a three-dimensional (3D) graph.

[0020]一態様では、感情データは、脳波図(EEG)センサ、検流計センサ、心電計センサ、心拍数センサ、視線追跡センサ、血圧センサ、歩数計、ジャイロスコープ、および他の何らかのタイプのセンサのような、1つ以上の生体信号センサを使用することによって取得できる。センサは、ユーザによって装着されるウェアラブルヘッドセット、リング、時計、ブレスレット、および/またはヘッドバンドのようなウェアラブルユーザデバイスに接続されてもよい。センサは、ワイヤによってまたはワイヤレスでウェアラブルユーザデバイスに接続されてもよい。 [0020] In one aspect, emotional data can be a brain wave (EEG) sensor, a galvanometer sensor, an electrocardiograph sensor, a heart rate sensor, a line-of-sight tracking sensor, a blood pressure sensor, a pedometer, a gyroscope, and some other type. It can be obtained by using one or more biometric sensor such as the sensor of. The sensor may be connected to a wearable user device such as a wearable headset, ring, watch, bracelet, and / or headband worn by the user. The sensor may be connected to the wearable user device by wire or wirelessly.

[0021]一態様では、医療専門家は、ユーザ(患者)の感情状態/生体測定情報のオーバーレイを、彼らの日のビジュアルダイアリー(visual diary)上に見ることができる。この情報は、患者を理解し、パターンを認識し、状況を視覚化する際に使用することができる。同様に、ユーザの感情状態/意識レベルのオーバーレイは、リアルタイムでユーザから収集されたバイオリズムデータを統合することによって、任意のウェブまたはモバイルアプリケーション上に示すことができる。 [0021] In one aspect, the medical professional can see an overlay of the user's (patient's) emotional state / biometric information on their day's visual diary. This information can be used to understand the patient, recognize patterns, and visualize the situation. Similarly, an overlay of a user's emotional state / consciousness level can be shown on any web or mobile application by integrating biorhythm data collected from the user in real time.

[0022]一態様では、第2のユーザの感情に関する情報は、任意のソーシャルメディアウェブサイト、ポータルまたはチャネル上で公開および/または投稿されることができる。情報は、テキストメッセージ、スカイプチャットもしくはコール、および/または他の何らかの形態のインスタントメッセージングもしくは通信と、オーバーレイおよび/または統合することができる。 [0022] In one aspect, information about the second user's emotions can be published and / or posted on any social media website, portal or channel. Information can be overlaid and / or integrated with text messages, Skype chat or calls, and / or some other form of instant messaging or communication.

[0023]一態様では、ユーザの感情は、二次ユーザの感情に基づいて動的に追跡できる。 [0023] In one aspect, the user's emotions can be dynamically tracked based on the secondary user's emotions.

[0024]一態様では、スコアは、数値として、ならびに怒り、悲しみ、および幸福等のような感情を図示する写真として表されてもよい。 [0024] In one aspect, the score may be expressed numerically and as a photograph illustrating emotions such as anger, sadness, and happiness.

[0025]本発明の別の態様は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムに関する。システムは、ウェアラブルユーザデバイスおよびコンピューティングユニットを含む。ウェアラブルユーザデバイスは、ユーザの生体リズムデータを収集するために、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成される。コンピューティングユニットは、通信ネットワーク上でユーザのバイオリズムデータを受信するためにウェアラブルユーザデバイスと通信可能に接続される。コンピューティングユニットは、プロセッサと、プロセッサに結合されたメモリとを含む。メモリは、統合モジュールと、感情状態決定モジュールと、感情データ表示モジュールとを含む。統合モジュールは、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュールは、ユーザの感情状態を決定する。感情データ表示モジュールは、ユーザの感情データをリアルタイムで分析して表示する。 [0025] Another aspect of the invention relates to a system that integrates emotional data into a social network platform and shares emotional data on social network platforms connected through a communication network. The system includes wearable user devices and computing units. The wearable user device is configured to be worn near the body of the user or placed (embedded) in the body of the user in order to collect the biorhythm data of the user. The computing unit is communicably connected to the wearable user device to receive the user's biorhythm data over the communication network. The computing unit includes a processor and memory coupled to the processor. The memory includes an integrated module, an emotional state determination module, and an emotional data display module. The integration module integrates emotional data into social network platforms. The emotional state determination module determines the emotional state of the user. The emotion data display module analyzes and displays the user's emotion data in real time.

[0026]統合モジュールは、生理学的データ収集エンジンと、生体信号生成エンジンと、スコア計算エンジンと、ソーシャル統合および情報オーバーレイエンジンとを含む。理学的データ収集エンジンは、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジンは、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジンは、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジンは、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。 [0026] The integration module includes a physiological data acquisition engine, a biological signal generation engine, a score calculation engine, and a social integration and information overlay engine. The physical data acquisition engine collects physiological data of at least one physiological characteristic of the user. The biological signal generation engine processes physiological data into at least one biological signal. The score calculation engine monitors and measures biological signals to determine at least one score for at least one of the user's emotions and the user's stress. The social integration and information overlay engine integrates the score with at least one of the social media posts, text conversations, and multimedia conversations (audio, video) associated with the social network platform, the user's emotions and the user's. Overlay information about stress.

[0027]感情状態決定モジュールは、分析モジュールと、感情モジュールと、表示モジュールとを含む。分析モジュールは、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュールは、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。表示モジュールは、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。 [0027] The emotional state determination module includes an analysis module, an emotional module, and a display module. Upon receiving the biorhythm data from the wearable user device, the analysis module analyzes the emotional state of the user. Emotion modules are one or more posts shared by users, one or more content shared by users, one or more reactions to posts, and one or more responses to posts on social network platforms. Associate the analyzed emotional state of the user corresponding to at least one of them. The display module displays an expression of a user's emotional state on a social network platform.

[0028]感情データ表示モジュールは、アルゴリズムモジュールおよび視覚化モジュールを含む。アルゴリズムモジュールは、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。 [0028] The emotion data display module includes an algorithm module and a visualization module. The algorithm module analyzes the biorhythm data and calculates the user's emotion score to generate one or more insights. The emotion score indicates the emotional state of the user during the dialogue. The visualization module visually represents multiple emotional cycles during a particular amount of time about the user. The visualization module displays the user's insights and emotion scores on the computing device associated with the user.

[0029]したがって、本発明の1つの利点は、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めることである。 [0029] Therefore, one advantage of the present invention is to enhance communication between a plurality of users and enhance human connection and recognition between users.

[0030]したがって、本発明の1つの利点は、バイオリズムを使用し、そのような情報をインターネット上で他者と共有する人の感情を監視することである。より具体的には、本発明は、ユーザのバイオリズムを測定し、ソーシャルメディアネットワーク上で共有することに関する。 [0030] Therefore, one advantage of the present invention is to use biorhythms to monitor the emotions of those who share such information with others on the Internet. More specifically, the present invention relates to measuring a user's biorhythm and sharing it on a social media network.

[0031]したがって、本発明の1つの利点は、ユーザが感情データを共有するソーシャルプラットフォームをユーザに提供し、他のユーザがそれを視覚化して感情状態を改善し、それに取り組むことを可能にすることである。 [0031] Therefore, one advantage of the present invention is to provide the user with a social platform for sharing emotional data, allowing other users to visualize it to improve and address emotional states. That is.

[0032]したがって、本発明の1つの利点は、ユーザのバイオリズムに基づいてユーザの感情状態を決定し、ソーシャルネットワークプラットフォームを介して感情状態を他のユーザに中継することである。 [0032] Therefore, one advantage of the present invention is to determine a user's emotional state based on the user's biorhythm and relay the emotional state to other users via a social network platform.

[0033]したがって、本発明の1つの利点は、ユーザの感情データを周期的に提供して、ユーザが自分の感情的および心理的状態を経時的に最適化するのを助け、ユーザがより一貫して肯定的な状態を感じることを可能にすることである。 [0033] Therefore, one advantage of the present invention is to provide the user's emotional data periodically to help the user optimize his or her emotional and psychological state over time, allowing the user to be more consistent. To make it possible to feel a positive state.

[0034]本発明の実施形態の他の特徴が、添付の図面から、および以下の詳細な説明から明らかになるだろう。 [0034] Other features of the embodiments of the present invention will be apparent from the accompanying drawings and from the detailed description below.

[0035]本発明のさらに他の目的および利点は、詳細な説明に続いて当業者に容易に明らかになるだろう。本発明の好ましい実施形態は、本発明を実施するためにここ企図される最良のモードの単なる例示として示され、説明される。解されるように、本発明は、他の異なる実施形態が可能であり、そのいくつかの詳細は、すべて本発明から逸脱することなく、様々な明らかな点において修正が可能である。したがって、図面およびその説明は、制限としてではなく、本質的には例示的なものとして見なされるべきである。 Still other objects and advantages of the present invention will be readily apparent to those of skill in the art following a detailed description. Preferred embodiments of the present invention are shown and illustrated merely as illustrations of the best modes contemplated herein for carrying out the present invention. As will be appreciated, the invention is capable of other different embodiments, all of which can be modified in various obvious ways without departing from the invention. Therefore, the drawings and their description should be viewed as exemplary in nature, not as a limitation.

[0036]図面では、類似したコンポーネントおよび/または特徴は、同じ参照ラベルを有しているかもしれない。さらに、同じタイプのさまざまなコンポーネントは、同様なコンポーネントから区別する第2のラベルが参照ラベルに続くことにより区別できる。本明細書で第1の参照ラベルのみが用いられている場合には、その説明は、第2の参照ラベルにかかわらず同じ第1の参照ラベルを有する類似のコンポーネントの何れか1つに適用するものである。
[0037] 図1は、本発明の一実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する本システムのブロック図を図示する。 [0038] 図2は、本開示の一実施形態にしたがう、本システムのネットワークインプリメンテーションを図示する。 [0039] 図3は、本発明の別の実施形態にしたがう、コンピューティングデバイスのメモリ内の様々なモジュールのブロック図を図示する。 [0040] 図4は、本発明の代替実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する方法のフローチャートを図示する。 [0041] 図5は、本発明の代替実施形態にしたがう、統合モジュールによって実行される複数のステップのフローチャートを図示する。 [0042] 図6は、本発明の代替実施形態にしたがう、感情状態決定モジュールによって実行される複数のステップのフローチャートを図示する。 [0043] 図7は、本発明の代替実施形態にしたがう、感情データ表示モジュールによって実行される複数のステップのフローチャートを図示する。
[0036] In drawings, similar components and / or features may have the same reference label. In addition, different components of the same type can be distinguished by a second label following the reference label, which distinguishes them from similar components. Where only the first reference label is used herein, the description applies to any one of the similar components having the same first reference label regardless of the second reference label. It is a thing.
[0037] FIG. 1 illustrates a block diagram of the system that integrates emotional data into a social network platform and shares emotional data on a social network platform connected through a communication network, according to an embodiment of the invention. .. [0038] FIG. 2 illustrates a network implementation of the system according to an embodiment of the present disclosure. [0039] FIG. 3 illustrates a block diagram of various modules in memory of a computing device, according to another embodiment of the invention. [0040] FIG. 4 illustrates a flow chart of how emotional data is integrated into a social network platform and shared on social network platforms connected through a communication network, according to an alternative embodiment of the invention. [0041] FIG. 5 illustrates a flow chart of a plurality of steps performed by an integrated module according to an alternative embodiment of the invention. [0042] FIG. 6 illustrates a flow chart of a plurality of steps performed by the emotional state determination module according to an alternative embodiment of the present invention. [0043] FIG. 7 illustrates a flow chart of a plurality of steps performed by the emotion data display module according to an alternative embodiment of the present invention.

詳細な説明Detailed explanation

[0044]本開示は、ここに記載される詳細な図および説明を参照して最もよく理解される。面を参照して様々な実施形態を説明してきた。しかしながら、当業者は、図面に関してここで提供される詳細な説明が単に説明目的のためであり、方法およびシステムは説明される実施形態を超えて拡張されてもよいことを容易に理解するであろう。例えば、提示される教示および特定の用途の必要性は、ここに説明される任意の詳細の機能性を実現するための複数の代替および適切なアプローチをもたらすことができる。したがって、任意のアプローチは、以下の実施形態におけるあるインプリメンテーション選択を超えて拡張することができる。 [0044] The present disclosure is best understood with reference to the detailed figures and description provided herein. Various embodiments have been described with reference to the surface. However, one of ordinary skill in the art will readily appreciate that the detailed description provided herein with respect to the drawings is for illustration purposes only and that the methods and systems may be extended beyond the embodiments described. Let's do it. For example, the teachings presented and the needs of a particular application can provide multiple alternatives and appropriate approaches to achieve the functionality of any detail described herein. Therefore, any approach can be extended beyond certain implementation choices in the following embodiments.

[0045]「1つの実施形態」、「少なくとも1つの実施形態」、「実施形態」、「1つの例」、「例」、「例えば」などへの言及は、実施形態または例が特定の特徴、構造、特性、性質、要素、または限定を含んでいてもよいが、すべての実施形態または例が必ずしもその特定の特徴、構造、特性、性質、要素、または限定を含むわけではないことを示す。さらに、「一実施形態において」という語句の繰り返し使用は、必ずしも同じ実施形態を指すものではない。 [0045] References to "one embodiment", "at least one embodiment", "embodiment", "one example", "example", "eg", etc. are characterized by the particular embodiment or example. , Structure, property, property, element, or limitation, but indicates that not all embodiments or examples necessarily include that particular feature, structure, property, property, element, or limitation. .. Moreover, repeated use of the phrase "in one embodiment" does not necessarily refer to the same embodiment.

[0046]本発明の方法は、選択されたステップまたはタスクを手動で、自動で、またはそれらの組合せで実行または完了することによって実現できる。「方法」という用語は、本発明が属する技術の当業者によって知られているか、または知られている方法、手段、技術および手順から容易に開発される方法、手段、技術および手順を含むがこれらに限定されない所与のタスクを達成するための方法、手段、技術および手順を指す。特許請求の範囲および明細書に提示される説明、例、方法、および材料は、限定としてではなく、むしろ例示としてのみ解釈されるべきである。当業者は、ここで説明されるテクノロジーの範囲内で多くの他の可能なバリエーションを想定するであろう。 [0046] The method of the present invention can be realized by performing or completing selected steps or tasks manually, automatically, or in combination thereof. The term "method" includes methods, means, techniques and procedures readily developed from methods, means, techniques and procedures known or known by those skilled in the art to which the present invention belongs. Refers to methods, means, techniques and procedures for accomplishing a given task, not limited to. The statements, examples, methods, and materials presented in the claims and specification should be construed as illustrative rather than limiting. Those of skill in the art will assume many other possible variations within the scope of the technology described herein.

[0047]図1は、本発明の一実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する本システム100のブロック図を図示している。システム100は、ウェアラブルユーザデバイス102およびコンピューティングデバイス104を含む。ウェアラブルユーザデバイス102は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置され(埋め込み可能)、ユーザ118のバイオリズムデータを収集するように構成される。ウェアラブルユーザデバイス102の例は、埋め込み可能なワイヤレスセンサデバイス、スマートウォッチ、スマートジュエリー、フィットネストラッカー、スマートクロス等を含むが、これらに限定されない。実施形態では、ウェアラブルユーザデバイス102は、ユーザ118の感情に関する1つ以上のパラメータを検出するための様々なセンサを含む。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するためにユーザ118の身体の周囲に固定されることができる、可撓性本体を含んでもよい。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するために加速度計およびジャイロスコープを含んでいてもよい。一実施形態では、ウェアラブルユーザデバイス102は、ウェアラブルユーザデバイス102をユーザ118の手首の周りに閉ループで固定するための固定機構を含んでいてもよい。さらに、ウェアラブルユーザデバイス102は、皮膚上に直接印刷されるオンボディステッカーもしくは3D印刷デバイス、または接着剤を用いて身体上に配置されるデバイスのような任意のウェアラブルであってもよい。ウェアラブルユーザデバイス102は、コンピューティングユニット104との通信を確立するために、様々なワイヤードまたはワイヤレス通信プロトコルを利用してもよい。 [0047] FIG. 1 is a block diagram of the system 100 that integrates emotional data into a social network platform and shares emotional data on a social network platform connected through a communication network, according to an embodiment of the present invention. Shows. The system 100 includes a wearable user device 102 and a computing device 104. The wearable user device 102 is configured to be mounted on or near the user's body or placed in the user's body (embeddable) to collect biorhythm data of the user 118. Examples of wearable user devices 102 include, but are not limited to, implantable wireless sensor devices, smart watches, smart jewelry, fitness trackers, smart cloths, and the like. In embodiments, the wearable user device 102 includes various sensors for detecting one or more parameters regarding the emotions of the user 118. In one embodiment, the wearable user device 102 may include a flexible body that can be secured around the user 118's body to collect biorhythm data. In one embodiment, the wearable user device 102 may include an accelerometer and a gyroscope to collect biorhythm data. In one embodiment, the wearable user device 102 may include a fixing mechanism for fixing the wearable user device 102 around the wrist of the user 118 in a closed loop. Further, the wearable user device 102 may be any wearable, such as an on-body sticker or 3D printing device printed directly on the skin, or a device placed on the body using an adhesive. The wearable user device 102 may utilize various wired or wireless communication protocols to establish communication with the computing unit 104.

[0048]コンピューティングデバイス104は、通信ネットワーク106上でユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102と通信可能に接続される。通信ネットワーク106は、ワイヤードまたはワイヤレスネットワークであってもよく、例は、インターネット、ワイヤレスローカルエリアネットワーク(WLAN)、Wi−Fi、ロングタームエボリューション(LTE(登録商標))、マイクロ波アクセスのための世界相互運用(WiMAX)、汎用パケット無線サービス(GPRS)、Bluetooth(登録商標)(BT)通信プロトコル、送信制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、Z-Wave、スレッド、5G、USB、シリアル、RS232、NFC、RFID、WAN、および/またはIEEE802.11、802.16、2G、3G、4Gセルラ通信プロトコルを含んでいてもよいが、これらに限定されない。 [0048] The computing device 104 is communicably connected to the wearable user device 102 to receive the user's biorhythm data on the communication network 106. The communication network 106 may be a wired or wireless network, eg Internet, Wireless Local Area Network (WLAN), Wi-Fi, Long Term Evolution (LTE®), World for Microwave Access. Interoperability (WiMAX), General Purpose Packet Radio Service (GPRS), Bluetooth® (BT) Communication Protocol, Transmission Control Protocol and Internet Protocol (TCP / IP), User Datagram Protocol (UDP), Hypertext Transfer Protocol ( HTTP), File Transfer Protocol (FTP), ZigBee, EDGE, Infrared (IR), Z-Wave, Thread, 5G, USB, Serial, RS232, NFC, RFID, WAN, and / or IEEE802.11, 802.16, 2G, 3G, and 4G cellular communication protocols may be included, but are not limited thereto.

[0049]コンピューティングデバイス104の例は、ラップトップ、デスクトップ、スマートフォン、スマートデバイス、スマートウォッチ、ファブレット、およびタブレットを含むがこれらに限定されない。コンピューティングデバイス104は、プロセッサ110、プロセッサ110に通信可能に結合されたメモリ112、およびユーザインターフェース114を含む。コンピューティングデバイス104は、データベース114に通信可能に結合される。データベース116は、感情データと、さらなる分析および予測のために使用することができる照会データとを受信して記憶し、それにより、本システムは、履歴感情データを使用することによって分析を学習および改善することができる。本主題事項は、本システム100がクラウドデバイス上で実現されることを考慮して説明されるが、本システム100はまた、Amazon Elastic Compute Cloud(Amazon EC2)、ネットワークサーバ、およびこれらに類するもののような種々のコンピューティングシステム内で実現されてもよいことを理解されたい。 [0049] Examples of computing devices 104 include, but are not limited to, laptops, desktops, smartphones, smart devices, smart watches, phablets, and tablets. The computing device 104 includes a processor 110, a memory 112 communicatively coupled to the processor 110, and a user interface 114. The computing device 104 is communicably coupled to the database 114. Database 116 receives and stores emotional data and query data that can be used for further analysis and prediction, whereby the system learns and improves analysis by using historical emotional data. can do. The subject matter is described in light of the fact that the System 100 is implemented on a cloud device, but the System 100 also seems to be an Amazon Elastic Compute Cloud (Amazon EC2), a network server, and the like. It should be understood that it may be implemented within various computing systems.

[0050]プロセッサ110は、ユーザまたはシステムが生成した要求を実行するためのプログラムコンポーネントを実行するための少なくとも1つのデータプロセッサを含んでいてもよい。ユーザは、人、本発明に含まれるもののようなデバイスを使用する人、またはそのようなデバイス自体を含むことができる。プロセッサ110は、統合システム(バス)コントローラ、メモリ管理制御ユニット、浮動小数点ユニット、グラフィックス処理ユニット、デジタル信号処理ユニット等のような専用処理ユニットを含むことができる。 [0050] Processor 110 may include at least one data processor for executing program components for executing user or system generated requests. A user may include a person, a person who uses a device such as that included in the present invention, or the device itself. The processor 110 can include a dedicated processing unit such as an integrated system (bus) controller, a memory management control unit, a floating point unit, a graphics processing unit, a digital signal processing unit, and the like.

[0051]プロセッサ110は、AMD(登録商標)ATHLON(登録商標)マイクロプロセッサ、DURON(登録商標)マイクロプロセッサ、またはOPTERON(登録商標)マイクロプロセッサのようなマイクロプロセッサ、ARMのアプリケーション、組み込みまたはセキュアプロセッサ、IBM(登録商標)POWERPC(登録商標)、INTELのCORE(登録商標)プロセッサ、ITANIUM(登録商標)プロセッサ、XEON(登録商標)プロセッサ、CELERON(登録商標)プロセッサ、または他の一連のプロセッサ等を含んでいてもよい。プロセッサ110は、メインフレーム、分散プロセッサ、マルチコア、並列、グリッド、または他のアーキテクチャを使用して実現されてもよい。いくつかの実施形態は、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)等のような埋め込みテクノロジーを利用してもよい。 [0051] Processor 110 is a microprocessor such as an AMD® ATHLON® microprocessor, DURON® microprocessor, or OPTERON® microprocessor, an ARM application, an embedded or secure processor. , IBM® POWERPC®, INTEL CORE® processor, ITANIUM® processor, XEON® processor, CELERON® processor, or a series of other processors. It may be included. Processor 110 may be implemented using a mainframe, distributed processor, multi-core, parallel, grid, or other architecture. Some embodiments may utilize embedded technologies such as application specific integrated circuits (ASICs), digital signal processors (DSPs), field programmable gate arrays (FPGAs), and the like.

[0052]プロセッサ110は、I/Oインターフェースを介して1つ以上の入力/出力(I/O)デバイスと通信するように配置されてもよい。I/Oインターフェースは、オーディオ、アナログ、デジタル、RCA、ステレオ、IEEE−1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸、コンポーネント、コンポジット、デジタルビジュアルインターフェース(DVI)、高精細マルチメディアインターフェース(HDMI(登録商標))、RFアンテナ、S−Video、VGA、IEEE802.n/b/g/n/x、Bluetooth(登録商標)、セルラ(たとえば、符号分割多元接続(CDMA)、高速パケットアクセス(HSPA+)、グローバルシステムフォーモバイルコミュニケーション(GSM(登録商標))、ロングタームエボリューション(LTE(登録商標))、WiMAX、またはこれらに類するもの)等のような通信プロトコル/方法を用いてもよいが、これらに限定されない。 [0052] Processor 110 may be arranged to communicate with one or more input / output (I / O) devices via an I / O interface. I / O interfaces are audio, analog, digital, RCA, stereo, IEEE-1394, serial bus, universal serial bus (USB), infrared, PS / 2, BNC, coaxial, component, composite, digital visual interface (DVI). , High-definition multimedia interface (HDMI (registered trademark)), RF antenna, S-Video, VGA, IEEE802. n / b / g / n / x, Bluetooth®, Cellular (eg Code Division Multiple Access (CDMA), High Speed Packet Access (HSPA +), Global System for Mobile Communication (GSM®), Long Term Communication protocols / methods such as Evolution (LTE®, WiMAX, or the like) may be used, but are not limited thereto.

[0053]メモリ112は不揮発性メモリまたは揮発性メモリであってもよい。揮発性メモリの例は、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、および電気的EPROM(EEPROM(登録商標))メモリを含んでいてもよいが、これらに限定されない。揮発性メモリの例は、ダイナミックランダムアクセスメモリ(DRAM)およびスタティックランダムアクセスメモリ(SRAM)を含んでいてもよいが、これらに限定されない。 [0053] The memory 112 may be a non-volatile memory or a volatile memory. Examples of volatile memories may include flash memory, read-only memory (ROM), programmable ROM (PROM), erasable PROM (EPROM), and electrical EPROM (EEPROM®) memory, although Not limited to these. Examples of volatile memory may include, but are not limited to, dynamic random access memory (DRAM) and static random access memory (SRAM).

[0054]ユーザインターフェース114は、本システムの管理者の要求に従って、統合感情データおよび共有感情データを提示することができる。一実施形態では、ユーザインターフェース(UIまたはGUI)114は、ソーシャルネットワークプラットフォームにアクセスし、接続されたユーザのバイオリズムデータを見るための便利なインターフェースである。バイオリズムデータは、とりわけ、心拍数、心拍変動、皮膚電位(EDA)/電気皮膚反応(GSR)、呼吸数、3D加速度計データ、およびジャイロスコープデータ、体温を含むが、これらに限定されない。バイオリズムデータを処理して、数学的記述またはアルゴリズムに基づいて信号を生成することができる。アルゴリズムは、ソフトウェアを介して導入されてもよい。ウェアラブルユーザデバイス側でデータが処理される可能性がある。データはまた、作用される前に一時的にそこに記憶されてもよい。 [0054] The user interface 114 can present integrated emotion data and shared emotion data according to the request of the administrator of the system. In one embodiment, the user interface (UI or GUI) 114 is a convenient interface for accessing the social network platform and viewing the biorhythm data of the connected user. Biorhythm data includes, but is not limited to, heart rate, heart rate variability, skin potential (EDA) / electroskin response (GSR), respiratory rate, 3D accelerometer data, and gyroscope data, body temperature, among others. Biorhythm data can be processed to generate signals based on mathematical descriptions or algorithms. The algorithm may be introduced via software. Data may be processed on the wearable user device side. The data may also be temporarily stored there before being acted upon.

[0055] 図2は、本開示の1つの実施形態にしたがう、本システムのネットワークインプリメンテーション200を図示している。図2は図1に関連して説明される。コンピューティングデバイス104−1、104−2、および104−Nは、通信ネットワーク106を通してユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102−1、102−2、および102−Nと通信可能に接続される。サーバ108は、統合され、共有された感情データを、記憶し、処理する。コンピューティングデバイス104またはウェアラブルユーザデバイス102は、音通知(任意のタイプの音)を開始してもよい。ユーザの現在の感情状態スコアに基づいて、いくつかの異なる挙動のうちの1つを行うようにユーザに通知するために、異なる音がウェアラブルユーザデバイス102のうちの1つ以上によって発せられるべきである。挙動は、1つの挙動に限定されなくてもよく、音は、複数の(多数の)アクションをシグナリングすることができることを理解されたい。音に関係付けられた挙動は、ユーザの所望の/予め設定された感情状態に近づくように、またはより具体的なバイオリズムを変化させる方向に移動するように、ユーザがその挙動を変化させるのに役立つべきである。 [0055] FIG. 2 illustrates a network implementation 200 of the system according to one embodiment of the present disclosure. FIG. 2 will be described in connection with FIG. The computing devices 104-1, 104-2, and 104-N are communicably connected to the wearable user devices 102-1, 102-2, and 102-N to receive the user's biorhythm data through the communication network 106. Will be done. The server 108 stores and processes the integrated and shared emotional data. The computing device 104 or the wearable user device 102 may initiate a sound notification (any type of sound). Different sounds should be emitted by one or more of the wearable user devices 102 to notify the user to perform one of several different behaviors based on the user's current emotional state score. be. It should be understood that the behavior does not have to be limited to one behavior and the sound can signal multiple (many) actions. Sound-related behaviors allow the user to change their behavior to approach the user's desired / preset emotional state, or to move in a direction that changes a more specific biorhythm. Should be useful.

[0056]一態様では、ウェアラブルユーザデバイス102およびコンピューティングデバイス104のネットワークアーキテクチャは、1つ以上のモノのインターネット(IoT)デバイスを含むことができる。本開示の典型的なネットワークアーキテクチャでは、1つ以上のIoTデバイスを含んでいてもよい送信機、受信機、および/またはトランシーバのような複数のネットワークデバイスを含むことができる。 [0056] In one aspect, the network architecture of the wearable user device 102 and the computing device 104 can include one or more Internet of Things (IoT) devices. A typical network architecture of the present disclosure can include multiple network devices such as transmitters, receivers, and / or transceivers that may include one or more IoT devices.

[0057]一態様では、ウェアラブルユーザデバイス102は、クラウドおよび/またはクラウドサーバならびにIoTデバイスと直接対話することができる。収集されるデータおよび/または情報は、ユーザモバイルおよび/またはポータブルコンピューティングデバイス上に任意のスペースを取ることなく、クラウドサーバ中に直接記憶されてもよい。モバイルおよび/またはポータブルコンピューティングデバイスは、サーバと直接対話し、フィードバックアクティブ化のための情報を受信し、フィードバックをトリガし、フィードバックを配信することができる。フィードバックの例は、一次ウェアラブルデバイス、二次ウェアラブルデバイス、別個のコンピューティングデバイス(すなわちモバイル)、または(コンピューティングデバイスであってもなくてもよい)IoTデバイスからの聴覚フィードバック、触覚フィードバック、触知性フィードバック、振動フィードバック、または視覚フィードバックを含むが、これらに限定されない。 [0057] In one aspect, the wearable user device 102 can interact directly with the cloud and / or cloud server and IoT device. The data and / or information collected may be stored directly in the cloud server without taking up any space on the user mobile and / or portable computing device. Mobile and / or portable computing devices can interact directly with the server to receive information for feedback activation, trigger feedback, and deliver feedback. Examples of feedback are auditory feedback, tactile feedback, and tactile feedback from primary wearable devices, secondary wearable devices, separate computing devices (ie mobile), or IoT devices (which may or may not be computing devices). Includes, but is not limited to, feedback, vibration feedback, or visual feedback.

[0058]ここで使用されるように、IoTデバイスは、感知および/または制御機能とともに、WiFi(登録商標)トランシーバ無線もしくはインターフェース、Bluetooth(登録商標)トランシーバ無線もしくはインターフェース、Zigbee(登録商標)トランシーバ無線もしくはインターフェース、超広帯域(UWB)トランシーバ無線もしくはインターフェース、WiFi−ダイレクトトランシーバ無線もしくはインターフェース、Bluetooth(登録商標)低エネルギー(BLE)トランシーバ無線もしくはインターフェース、ならびに/またはIoTデバイスがワイドエリアネットワークおよび1つ以上の他のデバイスと通信することを可能にする他の何らかのワイヤレスネットワークトランシーバ無線もしくはインターフェースを含むデバイスであることがある。いくつかの実施形態では、IoTデバイスは、セルラネットワークトランシーバまたはインターフェースを含まず、したがって、セルラネットワークと直接通信するように構成されなくてもよい。いくつかの実施形態では、IoTデバイスは、セルラトランシーバ無線を含んでいてもよく、セルラネットワーク無線を使用してセルラネットワークと通信するように構成されてもよい。 As used herein, IoT devices, along with sensing and / or control functions, are WiFi® transceiver radios or interfaces, Bluetooth® transceiver radios or interfaces, Zigbee® transceiver radios. Or an interface, an ultra-broadband (UWB) transceiver radio or interface, a WiFi-direct transceiver radio or interface, a Bluetooth® low energy (BLE) transceiver radio or interface, and / or an IoT device with a wide area network and one or more. It may be a device that includes some other wireless network transceiver radio or interface that allows it to communicate with other devices. In some embodiments, the IoT device does not include a cellular network transceiver or interface and therefore may not be configured to communicate directly with the cellular network. In some embodiments, the IoT device may include a cellular transceiver radio and may be configured to communicate with the cellular network using the cellular network radio.

[0059]ユーザは、ネットワークへのアクセスを可能にするネットワーク接続能力を有する任意の人間−機械インターフェースを含んでいてもよいアクセスデバイスを使用して、コンピューティングデバイスと通信してもよい。たとえば、アクセスデバイスは、スタンドアロンインターフェース(たとえば、セルラ電話機、スマートフォン、ホームコンピュータ、ラップトップコンピュータ、タブレット、パーソナルデジタルアシスタント(PDA)、コンピューティングデバイス、スマートウォッチのようなウェアラブルデバイス、壁パネル、またはこれらに類するもの)、電気機器または他のデバイスに組み込まれたインターフェース(たとえば、テレビジョン、冷蔵庫、セキュリティシステム、ゲームコンソール、ブラウザ、またはこれらに類するもの)、会話またはジェスチャインターフェース(たとえば、Kinect(登録商標)センサ、Wiimote(登録商標)、またはこれらに類するもの)、IoTデバイスインターフェース(たとえば、壁スイッチのようなインターネット対応デバイス、制御インターフェース、または他の適切なインターフェース)、またはこれらに類するものを含んでいてもよい。いくつかの実施形態では、アクセスデバイスは、セルラまたは他のブロードバンドネットワークトランシーバ無線またはインターフェースを含んでいてもよく、セルラまたはブロードバンドネットワークトランシーバ無線を使用して、セルラまたは他のブロードバンドネットワークと通信するように構成されてもよい。いくつかの実施形態では、アクセスデバイスは、セルラネットワークトランシーバ無線機またはインターフェースを含まなくてもよい。 [0059] The user may communicate with the computing device using an access device which may include any human-machine interface having network connectivity capable of allowing access to the network. For example, the access device can be a stand-alone interface (eg, cellular phone, smartphone, home computer, laptop computer, tablet, personal digital assistant (PDA), computing device, wearable device such as smart watch, wall panel, or these. Interfaces built into electrical equipment or other devices (eg, televisions, refrigerators, security systems, game consoles, browsers, or the like), conversational or gesture interfaces (eg, Kinct®). Includes sensors, Wiimote®, or similar), IoT device interfaces (eg, Internet-enabled devices such as wall switches, control interfaces, or other suitable interfaces), or the like. It is also good. In some embodiments, the access device may include a cellular or other broadband network transceiver radio or interface, such that the cellular or broadband network transceiver radio is used to communicate with the cellular or other broadband network. It may be configured. In some embodiments, the access device may not include a cellular network transceiver radio or interface.

[0060]一実施形態では、システムの現在の状態に関する情報をユーザに表示するように構成された入力/表示画面をユーザに提供することができる。入力/表示画面は、入力装置、現在の例ではボタンから入力を取得することができる。入力/表示画面はまた、タッチスクリーンとして構成されてもよく、またはタッチもしくは触覚ベースの入力システムを通してバイタル若しくは生体信号を決定するための入力を受け入れてもよい。入力ボタンおよび/または画面は、ユーザが、必要とされるユーザ入力に関するシステムからの入力プロンプトに応答することを可能にするように構成される。 [0060] In one embodiment, the user may be provided with an input / display screen configured to display information about the current state of the system to the user. The input / display screen can acquire input from an input device, in the current example, a button. The input / display screen may also be configured as a touch screen or may accept input for determining vital or biological signals through a touch or tactile based input system. Input buttons and / or screens are configured to allow the user to respond to input prompts from the system regarding the required user input.

[0061]ユーザに対して画面上に表示できる情報は、例えば、提供された処置の数、生体信号値、バイタル、バッテリー充電レベル、および音量レベルであってもよい。入力/表示画面は、波形発生器または別個のプロセッサとしても使用されてもよいプロセッサから情報を取得してもよい。プロセッサは、表示に利用可能な情報を提供し、ユーザがメニュー選択を開始することを可能にする。入力/表示画面は、バッテリーの電力消費を最小限に抑えるために液晶ディスプレイであってもよい。入力/表示画面および入力ボタンは、低い光レベルでシステムを動作させる能力をユーザに提供するように照明されてもよい。情報は、入力/表示画面の使用を通してユーザから得ることができる。 The information that can be displayed on the screen to the user may be, for example, the number of treatments provided, biological signal values, vitals, battery charge level, and volume level. The input / display screen may obtain information from a waveform generator or a processor that may also be used as a separate processor. The processor provides the information available for display and allows the user to initiate a menu selection. The input / display screen may be a liquid crystal display to minimize battery power consumption. Input / display screens and input buttons may be illuminated to provide the user with the ability to operate the system at low light levels. Information can be obtained from the user through the use of input / display screens.

[0062]図3は、本発明の別の実施形態にしたがう、コンピューティングデバイスのメモリ112内の様々なモジュールのブロック図を図示している。図3は図1に関連して説明される。メモリ110は、統合モジュール202と、感情状態決定モジュール204と、感情データ表示モジュール206とを含む。 [0062] FIG. 3 illustrates a block diagram of various modules in memory 112 of a computing device, according to another embodiment of the invention. FIG. 3 will be described in connection with FIG. The memory 110 includes an integrated module 202, an emotion state determination module 204, and an emotion data display module 206.

[0063]統合モジュール202は、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュール204は、ユーザの感情状態を決定する。感情データ表示モジュール206は、ユーザの感情データをリアルタイムで分析して表示する。 [0063] Integration module 202 integrates emotional data into a social network platform. The emotional state determination module 204 determines the emotional state of the user. The emotion data display module 206 analyzes and displays the user's emotion data in real time.

[0064]統合モジュール202は、生理学的データ収集エンジン208と、生体信号生成エンジン210と、スコア計算エンジン212と、ソーシャル統合および情報オーバーレイエンジン214とを含む。生理学的データ収集エンジン208は、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジン210は、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジン212は、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジン214は、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。 [0064] The integration module 202 includes a physiological data acquisition engine 208, a biological signal generation engine 210, a score calculation engine 212, and a social integration and information overlay engine 214. The physiological data acquisition engine 208 collects physiological data of at least one physiological characteristic of the user. The biological signal generation engine 210 processes physiological data into at least one biological signal. The score calculation engine 212 monitors and measures biological signals to determine at least one score for at least one of the user's emotions and the user's stress. The social integration and information overlay engine 214 integrates the score with at least one of the social media posts, text conversations, and multimedia conversations (audio, video) associated with the social network platform, the user's emotions and the user. Overlay information about your stress.

[0065]感情状態決定モジュール204は、分析モジュール216と、感情モジュール218と、表示モジュール220とを含む。分析モジュール216は、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュール218は、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。一実施形態では、感情モジュール218は、ユーザが、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドを開始することを容易にする。表示モジュール220は、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。一実施形態では、表示モジュール220は、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されているコンテンツとを表示する。 [0065] The emotional state determination module 204 includes an analysis module 216, an emotional module 218, and a display module 220. Upon receiving the biorhythm data from the wearable user device, the analysis module 216 analyzes the emotional state of the user. Emotion Module 218 is a social network platform that includes one or more posts shared by users, one or more content shared by users, one or more reactions to posts, and one or more to posts. Correlate the analyzed emotional state of the user corresponding to at least one of the responses. In one embodiment, the emotion module 218 facilitates the user to initiate a command relating the user's emotional state corresponding to the post shared by the user and the content shared to the user. The display module 220 displays an expression of the user's emotional state on the social network platform. In one embodiment, the display module 220 displays an emotional state representation of a post shared by the user and content shared to the user upon receiving a request command from the user.

[0066]感情データ表示モジュール206は、アルゴリズムモジュール222および視覚化モジュール224を含む。アルゴリズムモジュール222は、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュール224は、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュール224は、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。 [0066] The emotion data display module 206 includes an algorithm module 222 and a visualization module 224. The algorithm module 222 analyzes the biorhythm data and calculates the user's emotion score in order to generate one or more insights. The emotion score indicates the emotional state of the user during the dialogue. The visualization module visually represents multiple emotional cycles during a particular amount of time about the user. The visualization module 224 displays the user's insights and emotion scores on the computing device associated with the user. In one embodiment, the visualization module 224 uses emotional data by using at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols including a color or a moving shape. Is displayed in multiple ways on at least one of a two-dimensional (2D) graph and a three-dimensional (3D) graph.

[0067]本明細書は、様々な使用事例をさらに説明する。第1の使用事例では、ユーザは現時点でとても気分がよい。しかし、次の瞬間に、ユーザはソーシャルメディア上の投稿を見たり、彼の友人からテキストを得たり、インターネット上のニュースに関するランダム投稿を見たりする。突然、そのような新しい情報に基づいた感情における変化がある。したがって、ユーザの感情の変化を決定し、同時に任意の二次ユーザと共有する必要がある。 [0067] This specification further describes various use cases. In the first use case, the user feels very good at this point. But in the next moment, the user sees posts on social media, gets text from his friends, and sees random posts about news on the Internet. Suddenly, there are changes in emotions based on such new information. Therefore, it is necessary to determine changes in the user's emotions and at the same time share them with any secondary user.

[0068]一実施形態では、この感情の変化は、動的かつリアルタイムである。この変化は、別のユーザの状態の変化によって生じる。この変化は、ユーザの身体にワイヤレスでまたはワイヤード媒体によって接続されているバイオセンサによって決定される。変化を決定したユーザのバイオリズムの変化および感情の変化は、ユーザが許可を与える場合、第2のユーザへの通信チャネルに伝達される。一実施形態では、閾値を予め決定することができ、閾値に基づいておよび閾値を逸脱すると、システムおよび方法は、ユーザ通信を別のチャネルに変更して、ユーザをリラックスおよび/または落ち着かせる。一実施形態では、他のユーザは、通信チャネル上でユーザの感情についてのスコアに基づいて情報を得ることもできる。 [0068] In one embodiment, this emotional change is dynamic and real-time. This change is caused by a change in the state of another user. This change is determined by a biosensor that is connected to the user's body wirelessly or by a wired medium. Changes in the biorhythm and emotions of the user who have determined the change are transmitted to the communication channel to the second user if the user grants permission. In one embodiment, the threshold can be predetermined and based on the threshold and deviating from the threshold, the system and method change the user communication to another channel to relax and / or calm the user. In one embodiment, other users may also obtain information on the communication channel based on their score about their emotions.

[0069]図4は、本発明の代替実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法のフローチャート400を図示している。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップ402を含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通してユーザのバイオリズムデータを受信するステップ404を含む。方法は、統合モジュールを通して感情データを統合するステップ406を含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップ408を含む。方法は、感情データ表示モジュールを通してユーザの感情データをリアルタイムで分析して表示するステップ410を含む。 [0069] FIG. 4 illustrates a flowchart 400 of a method for integrating emotional data into a social network platform and sharing emotional data on a social network platform connected through a communication network, according to an alternative embodiment of the invention. Shows. The method steps 402 to collect the user's biorhythm data through a wearable user device configured to be mounted on the user's body, close to the body, or placed (embeddable) in the user's body. include. The method comprises receiving the user's biorhythm data through a computing device communicably connected to the wearable user device on the communication network. The method comprises integrating emotional data through an integration module, step 406. The method comprises step 408 of determining a user's emotional state through an emotional state determination module. The method comprises step 410 of analyzing and displaying the user's emotional data in real time through the emotional data display module.

[0070]図5は、本発明の代替実施形態にしたがう、統合モジュールによって実行される複数のステップのフローチャート500を図示している。統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップ502から始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップ504を含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップ506を含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップ508を含む。 [0070] FIG. 5 illustrates a flowchart 500 of a plurality of steps performed by an integrated module according to an alternative embodiment of the present invention. The integrated module performs multiple steps starting with step 502 to collect physiological data of at least one physiological characteristic of the user through a physiological data acquisition engine. The method comprises processing physiologic data into at least one biosignal through a biosignal generation engine. The method comprises monitoring and measuring biological signals through a score calculation engine to determine at least one score for at least one of a user's emotions and a user's stress. The method integrates the score with at least one of social media posts, text conversations, and multimedia conversations (audio, video) associated with social network platforms through social integration and information overlay engines, and the user's emotions. And step 508 to overlay information about user stress.

[0071]図6は、本発明の代替実施形態にしたがう、感情状態決定モジュールによって実行される複数のステップのフローチャート600を図示している。感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップ602から始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有される1つ以上の投稿、ユーザに共有される1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のステップ604を含む。一実施形態では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップ606を含む。一実施形態では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。 [0071] FIG. 6 illustrates a flow chart 600 of a plurality of steps performed by the emotional state determination module according to an alternative embodiment of the present invention. Upon receiving the biorhythm data from the wearable user device through the analysis module, the emotional state determination module performs a plurality of steps starting from step 602 to analyze the user's emotional state. The method is one or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, one or more responses to the post on the social network platform through the emotion module. Includes step 604. In one embodiment, the emotion module facilitates the user initiating a command that associates the user's emotional state with the post shared by the user and the content shared with the user. The method comprises displaying a representation of a user's emotional state on a social network platform through a display module 606. In one embodiment, the display module displays an emotional state representation of a post shared by the user and content shared with the user upon receiving a request command from the user.

[0072]図7は、本発明の代替実施形態にしたがう、感情データ表示モジュールによって実行される複数のステップのフローチャート700を図示している。感情データ表示モジュールは、1つ以上の洞察を生成するために、アルゴリズムモジュールを通してバイオリズムデータを分析し、ユーザの感情スコアを計算して、ステップ702から始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップ704を含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。 [0072] FIG. 7 illustrates a flowchart 700 of a plurality of steps performed by the emotion data display module according to an alternative embodiment of the present invention. The emotion data display module analyzes biorhythm data through an algorithm module, calculates the user's emotion score, and performs a plurality of steps starting from step 702 to generate one or more insights. The emotion score indicates the emotional state of the user during the dialogue. The method comprises step 704, which visually represents multiple emotional cycles during a particular amount of time about the user through a visualization module. The visualization module displays the user's insights and emotion scores on the computing device associated with the user. In one embodiment, the visualization module captures emotional data by using at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols including a color or a moving shape. Display in multiple ways on at least one of a two-dimensional (2D) graph and a three-dimensional (3D) graph.

[0073]したがって、本発明は、ユーザがより多くのつながりを追加することを可能にするソーシャルネットワークプラットフォームを提供し、つながりを作るために招待が他のユーザに送信される。他のユーザからの受諾の後、ユーザは、写真、メッセージ、様々な文書ファイルフォーマットまたは画像フォーマットまたはビデオフォーマットの添付ファイル、オーディオクリップ、ビデオ、アニメーション/gifに限定されないが、様々な形式でデータを共有することができる。共有されたデータまたは情報に基づいて、ユーザは、例えば、悲しい、幸せ、笑い、愛、およびこれらに類するものを表す対応するボタンをクリックすることによって、感情アイコンを介して感情および気持ちに応答し、共有することができる。システムは、ユーザが、ソーシャルネットワークにおいて、ユーザによって共有されているコンテンツの一部およびユーザに共有されているコンテンツのうちの少なくとも1つに関するユーザの感情状態を関係付けるように要求することを可能にする。ユーザは、感情アイコンを、コンテンツの一部に隣接してか、コンテンツの一部の上に重ねてのいずれかで配置してもよい。ユーザは、感情アイコンを半透明に変更することができ、または他の何らかの視覚効果を使用して、ソーシャルネットワーク上のコンテンツの一部に応答することができる。 [0073] Accordingly, the present invention provides a social network platform that allows a user to add more connections, and invitations are sent to other users to make connections. After acceptance from other users, users may submit data in various formats, including but not limited to photos, messages, attachments in various document file formats or image formats or video formats, audio clips, videos, animations / gifs. Can be shared. Based on the shared data or information, the user responds to emotions and feelings through the emotion icon, for example by clicking the corresponding button representing sadness, happiness, laughter, love, and the like. , Can be shared. The system allows a user to request that the user's emotional state regarding some of the content shared by the user and at least one of the content shared by the user be associated in a social network. do. The user may place the emotion icon either adjacent to or overlaid on a portion of the content. The user can change the emotion icon to be translucent, or use some other visual effect to respond to some of the content on social networks.

[0074]本発明の実施形態を図示し、説明してきたが、本発明がこれらの実施形態のみに限定されないことは明らかだろう。特許請求の範囲に記載された本発明の範囲から逸脱することなく、多数の修正、変更、バリエーション、置換、および均等物が当業者には明らかであろう。

Although embodiments of the present invention have been illustrated and described, it will be clear that the present invention is not limited to these embodiments alone. Numerous modifications, changes, variations, substitutions, and equivalents will be apparent to those skilled in the art without departing from the scope of the invention described in the claims.

Claims (8)

感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続された前記ソーシャルネットワークプラットフォーム上で前記感情データを共有するシステムであって、
ユーザのバイオリズムデータを収集するウェアラブルユーザデバイスと、
前記通信ネットワーク上で前記ユーザの前記バイオリズムデータを受信するように前記ウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスとを含み、
前記コンピューティングデバイスは、
プロセッサと、
前記プロセッサに通信可能に結合されたメモリとを含み、ここで、前記メモリは、前記プロセッサによって実行される命令を記憶し、
ここで、前記メモリは、
前記感情データを統合する統合モジュール、
前記統合モジュールは、
前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集する生理学的データ収集エンジンと、
前記生理学的データを少なくとも1つの生体信号に処理する生体信号生成エンジンと、
前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために前記生体信号を監視および測定するスコア計算エンジンと、
前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの前記感情および前記ユーザのストレスに関する情報をオーバーレイするソーシャル統合および情報オーバーレイエンジンとを含み、と、
前記ユーザの感情状態を決定する感情状態決定モジュール、
前記感情状態決定モジュールは、
前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの感情状態を分析する分析モジュールと、
前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるための感情モジュールと、
前記ソーシャルネットワークプラットフォームにおける前記ユーザの感情状態の表現を表示する表示モジュールとを含み、と、
前記ユーザの感情データをリアルタイムで分析して表示する感情データ表示モジュールとを含み、
前記感情データ表示モジュールは、
前記バイオリズムデータを分析し、1つ以上の洞察を生成するために前記ユーザの感情スコアを計算するためのアルゴリズムモジュール、ここで、前記感情スコアは対話の間の前記ユーザの前記感情状態を示し、と、
前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すための視覚化モジュールとを含み、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、システム。
A system that integrates emotional data into a social network platform and shares the emotional data on the social network platform connected through a communication network.
Wearable user devices that collect user biorhythm data,
Includes a wearable user device and a computing device communicably connected to receive the biorhythm data of the user on the communication network.
The computing device is
With the processor
A memory that is communicably coupled to the processor, wherein the memory stores instructions executed by the processor.
Here, the memory is
An integrated module that integrates the emotional data,
The integrated module
A physiological data acquisition engine that collects physiological data of at least one physiological characteristic of the user.
A biological signal generation engine that processes the physiological data into at least one biological signal,
A score calculation engine that monitors and measures the biological signal to determine at least one score for at least one of the user's emotions and the user's stress.
Social integration that integrates the score with at least one of the social media posts, text conversations, and multimedia conversations associated with the social network platform and overlays information about the user's emotions and the user's stress. And including information overlay engine, and,
An emotional state determination module that determines the emotional state of the user,
The emotional state determination module is
Upon receiving the biorhythm data from the wearable user device, an analysis module that analyzes the emotional state of the user and an analysis module.
One or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one or more to the post on the social network platform. An emotional module for associating the analyzed emotional state of the user with at least one of the responses.
A display module that displays an expression of the user's emotional state on the social network platform.
It includes an emotion data display module that analyzes and displays the user's emotion data in real time.
The emotion data display module is
An algorithm module for analyzing the biorhythm data and calculating the user's emotion score to generate one or more insights, wherein the emotion score indicates the user's emotional state during a dialogue. When,
Includes a visualization module for visually representing a plurality of emotional cycles during a particular amount of time for the user, wherein the visualization module is on the computing device associated with the user. A system that displays the user's insights and emotional scores.
前記感情モジュールは、前記ユーザによって共有されている前記投稿と、前記ユーザに共有されている前記コンテンツとに対応する前記ユーザの感情状態を関係付けるコマンドを前記ユーザが開始することを容易にする、請求項1に記載のシステム。 The emotion module facilitates the user to initiate a command relating the user's emotional state corresponding to the post shared by the user and the content shared to the user. The system according to claim 1. 前記表示モジュールは、前記ユーザが共有している投稿に対する感情状態の表現と、前記ユーザからの要求コマンドを受信すると前記ユーザに共有されるコンテンツとを表示する、請求項1に記載のシステム。 The system according to claim 1, wherein the display module displays an expression of an emotional state for a post shared by the user and content shared by the user when a request command from the user is received. 前記視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの複数の方法で表示する、請求項1に記載のシステム。 The visualization module uses at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols to display emotional data in a two-dimensional (2D) graph and a three-dimensional (2D) graph. 3D) The system of claim 1, wherein the graph is displayed in at least one of a plurality of ways. 感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続された前記ソーシャルネットワークプラットフォーム上で前記感情データを共有する方法であって、
ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップと、
前記通信ネットワーク上で前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、前記ユーザの前記バイオリズムデータを受信するステップと、
統合モジュールを通して前記感情データを統合するステップ、
ここで、前記統合モジュールは、
生理学的データ収集エンジンを通して前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップと、
生体信号生成エンジンを通して前記生理学的データを少なくとも1つの生体信号に処理するステップと、
スコア計算エンジンを通して、前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、前記生体信号を監視および測定するステップと、
ソーシャル統合および情報オーバーレイエンジンを通して、前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの感情および前記ユーザのストレスに関する情報をオーバーレイするステップとを含む複数のステップを実行し、
感情状態決定モジュールを通して前記ユーザの感情状態を決定するステップ、
ここで、前記感情状態決定モジュールは、
分析モジュールを通して前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの前記感情状態を分析するステップと、
感情モジュールを通して前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるステップと、
表示モジュールを通して前記ソーシャルネットワークプラットフォームにおいて前記ユーザの前記感情状態の表現を表示するステップとを含む複数のステップを実行し、
感情データ表示モジュールを通して前記ユーザの感情データをリアルタイムで分析して表示するステップとを含み、
ここで、前記感情データ表示モジュールは、
前記バイオリズムデータを分析し、アルゴリズムモジュールを通して前記ユーザの感情スコアを計算して1つ以上の洞察を生成するステップ、ここで、前記感情スコアは、対話の間の前記ユーザの前記感情状態を示し、と、
視覚化モジュールを通して前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップとを含む複数のステップを実行し、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、方法。
A method of integrating emotional data into a social network platform and sharing the emotional data on the social network platform connected through a communication network.
Steps to collect user biorhythm data through a wearable user device,
A step of receiving the biorhythm data of the user through a computing device communicably connected to the wearable user device on the communication network.
Steps to integrate the emotional data through the integration module,
Here, the integrated module is
A step of collecting physiological data of at least one physiological characteristic of the user through a physiological data acquisition engine.
A step of processing the physiological data into at least one biological signal through a biological signal generation engine.
A step of monitoring and measuring the biological signal to determine at least one score for at least one of the user's emotions and the user's stress through a score calculation engine.
Through social integration and information overlay engines, the score is integrated with at least one of the social media posts, text conversations, and multimedia conversations associated with the social network platform, and the emotions of the user and the stress of the user. Perform multiple steps, including a step that overlays information about
A step of determining the user's emotional state through the emotional state determination module,
Here, the emotional state determination module is
Upon receiving the biorhythm data from the wearable user device through the analysis module, the step of analyzing the emotional state of the user and the step of analyzing the emotional state of the user.
One or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one to the post on the social network platform through the emotion module. The step of associating the analyzed emotional state of the user corresponding to at least one of the two or more responses.
Performing a plurality of steps, including displaying the expression of the emotional state of the user on the social network platform through the display module.
Including the step of analyzing and displaying the emotion data of the user in real time through the emotion data display module.
Here, the emotion data display module is
A step of analyzing the biorhythm data and calculating the user's emotion score through an algorithm module to generate one or more insights, wherein the emotion score indicates the user's emotional state during a dialogue. When,
A plurality of steps are performed through the visualization module, including a step that visually represents a plurality of emotional cycles for a particular amount of time for the user, wherein the visualization module is associated with the user. A method of displaying the user's insights and emotion scores on the computing device.
前記感情モジュールは、前記ユーザによって共有されている前記投稿と、前記ユーザに共有されている前記コンテンツとに対応する前記ユーザの感情状態を関係付けるコマンドを前記ユーザが開始することを容易にする、請求項5に記載の方法。 The emotion module facilitates the user to initiate a command relating the user's emotional state corresponding to the post shared by the user and the content shared to the user. The method according to claim 5. 前記表示モジュールは、前記ユーザから要請命令を受信に対する感情状態の表現と、前記ユーザからの要求コマンドを受信すると前記ユーザに共有されるコンテンツとを表示する、請求項5に記載の方法。 The method according to claim 5, wherein the display module displays an expression of an emotional state for receiving a request command from the user and content shared to the user when the request command from the user is received. 前記視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つに複数の方法で表示する、請求項5に記載の方法。 The visualization module uses at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols to display emotional data in a two-dimensional (2D) graph and a three-dimensional (2D) graph. 3D) The method of claim 5, wherein at least one of the graphs is displayed in a plurality of ways.
JP2021541326A 2018-09-21 2019-09-21 Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms Pending JP2022502803A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862734571P 2018-09-21 2018-09-21
US201862734587P 2018-09-21 2018-09-21
US201862734608P 2018-09-21 2018-09-21
US62/734,608 2018-09-21
US62/734,587 2018-09-21
US62/734,571 2018-09-21
PCT/IB2019/058002 WO2020058942A1 (en) 2018-09-21 2019-09-21 System and method to integrate emotion data into social network platform and share the emotion data over social network platform

Publications (2)

Publication Number Publication Date
JP2022502803A true JP2022502803A (en) 2022-01-11
JPWO2020058942A5 JPWO2020058942A5 (en) 2022-10-26

Family

ID=69888614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541326A Pending JP2022502803A (en) 2018-09-21 2019-09-21 Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms

Country Status (9)

Country Link
US (1) US20220036481A1 (en)
EP (1) EP3854030A4 (en)
JP (1) JP2022502803A (en)
KR (1) KR20210098953A (en)
CN (1) CN113287281A (en)
BR (1) BR112021005414A2 (en)
CA (1) CA3113729A1 (en)
MX (1) MX2021003336A (en)
WO (1) WO2020058942A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022502805A (en) * 2018-09-21 2022-01-11 カーティス、スティーブ Systems and methods for distributing revenue among users based on quantified and qualified emotional data
US11531394B2 (en) * 2020-09-09 2022-12-20 Emotional Imaging Inc. Systems and methods for emotional-imaging composer

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853259A (en) * 2009-03-31 2010-10-06 国际商业机器公司 Methods and device for adding and processing label with emotional data
US20140221866A1 (en) * 2010-06-02 2014-08-07 Q-Tec Systems Llc Method and apparatus for monitoring emotional compatibility in online dating
US10799168B2 (en) * 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US20130198694A1 (en) * 2011-06-10 2013-08-01 Aliphcom Determinative processes for wearable devices
US10009644B2 (en) * 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data
US10365716B2 (en) * 2013-03-15 2019-07-30 Interaxon Inc. Wearable computing apparatus and method
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
SG10201407018YA (en) * 2014-10-28 2016-05-30 Chee Seng Keith Lim System and method for processing heartbeat information
US20210005224A1 (en) * 2015-09-04 2021-01-07 Richard A. ROTHSCHILD System and Method for Determining a State of a User
CN105391843A (en) * 2015-09-28 2016-03-09 努比亚技术有限公司 Terminal device, information issuing method and information issuing system
CN105726045A (en) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 Emotion monitoring method and mobile terminal thereof
US20170374498A1 (en) * 2016-04-29 2017-12-28 Shani Markus Generic software-based perception recorder, visualizer, and emotions data analyzer
US10762429B2 (en) * 2016-05-18 2020-09-01 Microsoft Technology Licensing, Llc Emotional/cognitive state presentation
CN109803572A (en) * 2016-07-27 2019-05-24 生物说股份有限公司 For measuring and the system and method for managing physiologic emotional state
US10600507B2 (en) * 2017-02-03 2020-03-24 International Business Machines Corporation Cognitive notification for mental support

Also Published As

Publication number Publication date
BR112021005414A2 (en) 2021-06-15
KR20210098953A (en) 2021-08-11
US20220036481A1 (en) 2022-02-03
EP3854030A1 (en) 2021-07-28
CA3113729A1 (en) 2020-03-26
WO2020058942A1 (en) 2020-03-26
CN113287281A (en) 2021-08-20
EP3854030A4 (en) 2022-06-22
MX2021003336A (en) 2021-09-28

Similar Documents

Publication Publication Date Title
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
US9204836B2 (en) Sporadic collection of mobile affect data
US20130245396A1 (en) Mental state analysis using wearable-camera devices
AU2011329025A1 (en) Sharing affect across a social network
US10431116B2 (en) Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience
US20120083675A1 (en) Measuring affective data for web-enabled applications
US11914784B1 (en) Detecting emotions from micro-expressive free-form movements
US20180276281A1 (en) Information processing system, information processing method, and storage medium
US20220031239A1 (en) System and method for collecting, analyzing and sharing biorhythm data among users
US20210350917A1 (en) System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states
US10108784B2 (en) System and method of objectively determining a user's personal food preferences for an individualized diet plan
US20230044314A1 (en) Predictive and interactive diagnostic system
JP2022502803A (en) Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms
US20130052621A1 (en) Mental state analysis of voters
Gay et al. Using sensors and facial expression recognition to personalize emotion learning for autistic children
Vasiljevas et al. A human-adaptive model for user performance and fatigue evaluation during gaze-tracking tasks
Wadhwa et al. SenseX: design and deployment of a pervasive wellness monitoring platform for workplaces
JP2009230363A (en) Display unit and display method therefor
Muehl et al. Affective brain-computer interfaces: Special Issue editorial
WO2014066871A1 (en) Sporadic collection of mobile affect data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231127