JP2022502803A - Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms - Google Patents
Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms Download PDFInfo
- Publication number
- JP2022502803A JP2022502803A JP2021541326A JP2021541326A JP2022502803A JP 2022502803 A JP2022502803 A JP 2022502803A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2021541326 A JP2021541326 A JP 2021541326A JP 2022502803 A JP2022502803 A JP 2022502803A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- emotional
- module
- emotional state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 128
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000004891 communication Methods 0.000 claims abstract description 29
- 230000010354 integration Effects 0.000 claims abstract description 16
- 230000008451 emotion Effects 0.000 claims description 73
- 238000012800 visualization Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 7
- 230000014509 gene expression Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 5
- 230000001413 cellular effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 230000006996 mental state Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- FMFKNGWZEQOWNK-UHFFFAOYSA-N 1-butoxypropan-2-yl 2-(2,4,5-trichlorophenoxy)propanoate Chemical compound CCCCOCC(C)OC(=O)C(C)OC1=CC(Cl)=C(Cl)C=C1Cl FMFKNGWZEQOWNK-UHFFFAOYSA-N 0.000 description 1
- 238000010146 3D printing Methods 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- 208000027534 Emotional disease Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004962 physiological condition Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/20—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
- H04W4/21—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/12—Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4857—Indicating the phase of biorhythm
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
- H04L67/306—User profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Psychiatry (AREA)
- Primary Health Care (AREA)
- Theoretical Computer Science (AREA)
- Epidemiology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
Abstract
感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法を開示する。方法は、ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。【選択図】図1Integrate emotional data into social network platforms and disclose systems and methods for sharing emotional data on social network platforms connected through communication networks. The method comprises collecting user biorhythm data through a wearable user device. The method comprises receiving the user's biorhythm data through a computing device communicably connected to the wearable user device on a communication network. The method involves integrating emotional data through an integration module. The method comprises a step of determining a user's emotional state through an emotional state determination module. The method comprises a step of analyzing and displaying the user's emotional data in real time through the emotional data display module. [Selection diagram] Fig. 1
Description
[0001]本発明は、感情データをソーシャルネットワークプラットフォームに統合して、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めるシステムおよび方法に関し、特に、感情データをソーシャルネットワークプラットフォームに統合し、ソーシャルネットワークプラットフォーム上で感情データを共有するシステムおよび方法に関する。 [0001] The present invention relates to systems and methods that integrate emotional data into a social network platform to enhance communication between multiple users and enhance human connectivity and awareness between users, in particular the emotional data social network. Systems and methods for integrating into the platform and sharing emotional data on social network platforms.
[0002]様々なソーシャルネットワークプラットフォームの出現により、人々は、インターネット上で膨大な時間を費やして、他の接続されたユーザと仮想的に対話する。本明細書は、ユーザの精神状態を評価して、ユーザの周囲で起こる様々な活動に対するユーザの反応を理解することができることを認識する。精神状態は、幸福から悲しみまで、満足から心配まで、興奮から平穏までのような広い範囲を含む。これらの精神状態は、交通渋滞中のフラストレーション、並んでいる間の退屈、1杯のコーヒーを待っている間の焦燥感のような毎日の出来事に応答して、さらには人々が自分のコンピュータおよびインターネットと対話するときに経験される。個人は、他者の精神状態を評価し理解することに基づいて、かなり知覚し、共感するようになるかもしれないが、精神状態の自動評価は、はるかに困難である。共感する人は、他の人が不安であるか又は喜んでいると知覚し、それに応じて応答することができる。ある人が別の人の感情状態を知覚する能力および手段は、要約することが非常に困難であるかもしれず、「直感」を有するものとして伝達されることが多い。 [0002] With the advent of various social network platforms, people spend enormous amounts of time on the Internet interacting virtually with other connected users. It is recognized that the present specification can evaluate a user's mental state and understand the user's reaction to various activities occurring around the user. Mental states range from happiness to sadness, from satisfaction to anxiety, from excitement to peace. These mental states respond to daily events such as frustration during traffic jams, boredom while lining up, frustration while waiting for a cup of coffee, and even people on their computers. And experienced when interacting with the Internet. Individuals may become quite perceptive and empathetic based on assessing and understanding the mental state of others, but automatic assessment of mental state is much more difficult. Those who sympathize can perceive that others are anxious or happy and respond accordingly. The ability and means by which one person perceives another person's emotional state can be very difficult to summarize and is often transmitted as having "intuition."
[0003]個人または人々のグループの理解を助けるために、混乱、集中、および心配のような多くの精神状態を識別できる。人々は、大災害を目撃した後のように、恐怖または不安で集合的に応答することができる。同様に、人々は、彼らのスポーツチームが勝利を得たときのように、幸せな熱意で集合的に応答することができる。ある表情および頭部ジェスチャ(head gestures)を使用して、人が体験している精神状態を識別することができる。顔の表情に基づく精神状態の評価では、限られた自動化が行われている。ある生理学的条件は、人の心理状態を知らせる指標を提供することができ、ポリグラフテストのようにおおざっぱな方法で使用されている。 [0003] Many mental states such as confusion, concentration, and anxiety can be identified to aid understanding of individuals or groups of people. People can respond collectively with fear or anxiety, such as after witnessing a catastrophe. Similarly, people can respond collectively with happy enthusiasm, as when their sports team wins. Certain facial expressions and head gestures can be used to identify the mental state a person is experiencing. There is limited automation in the evaluation of mental states based on facial expressions. Certain physiological conditions can provide indicators of a person's psychological state and are used in rough manners such as polygraph tests.
[0004]同様に、人々は、現在、写真、ウェブサイト、およびこれらに類するもののような様々なソーシャルメディアに応答して、即時かつ連続的なフィードバックを提供する能力を有する。そのようなフィードバックは、コンピュータ、タブレット、スマートフォン、およびインターネットにアクセスする他のデバイス上で提供されることができる。例えば、「いいね」は、肯定的なフィードバックを与えるか、または、人が人気のあるソーシャルメディアサイトFacebook(登録商標)上で関心のあるものを連想する方法である。特に、Facebook(登録商標)上の「いいね」ボタンは、Facebook(登録商標)上のほとんどのコンテンツを見た後にユーザがクリックすることができるボタンであり、その後、「友人」にニュースフィードで報告される。Facebook(登録商標)に関連しないウェブサイトも、「いいね」ボタンを使用してもよく、これにより、ウェブサイト訪問者はボタンをクリックして、彼/彼女の友人に、彼らがサイトを好むことを知らせることができる。例えば、ウェブサイトの「いいね」ボタンをクリックした後、ポップアップは、Facebook(登録商標)へのログイン(または、まだメンバーでない場合はサインアップ)を要求し、ユーザのFacebook(登録商標)ページ上の投稿は、彼/彼女の友人に、彼/彼女がサイトを好むことを知らせる。スマートフォンのようなモバイルデバイス上で使用されるとき、「いいね」ボタンは、単に、ボタンが押されたときにユーザをFacebook(登録商標)に連れて行くだけの、電話上の統合ハードウェア「Facebook(登録商標)」ボタンである。 [0004] Similarly, people are now capable of providing immediate and continuous feedback in response to various social media such as photos, websites, and the like. Such feedback can be provided on computers, tablets, smartphones, and other devices that access the Internet. For example, "Like" is a way to give positive feedback or associate something of interest on the popular social media site Facebook®. In particular, the "Like" button on Facebook® is a button that the user can click after viewing most of the content on Facebook® and then to "Friends" in the news feed. Will be reported. Websites that are not related to Facebook® may also use the Like button, which allows website visitors to click the button and tell his / her friends that they like the site. I can tell you that. For example, after clicking the Like button on a website, a pop-up will require you to log in to Facebook (or sign up if you are not already a member) and on your Facebook page. Posts inform his / her friends that he / she likes the site. When used on mobile devices such as smartphones, the Like button is an integrated hardware on the phone that simply takes the user to Facebook® when the button is pressed. Facebook® button.
[0005]同様に、コンピュータまたはモバイルデバイス上の「Pin It」ボタンは、ユーザが、ウェブの周囲から画像およびビデオを取り込み、それらをユーザによって作成されたオンラインピンボードに追加することを可能にする。他のユーザは、ピンボード、コメント、および「リピン(re−pin)」を見ることができる。人々がモバイルデバイスを使用して彼らの環境と対話することを可能にする能力も導入されている。例えば、ロケーションベースのソーシャルネットワーキングウェブサイトは、ユーザが、アプリケーションが近くに位置する場所のリストから選択することによって、モバイルウェブサイト、テキストメッセージング、またはデバイス特有のアプリケーションを使用する場所で「チェックイン」することを可能にする。ロケーションは、モバイルデバイス中のGPSハードウェア、またはアプリケーションによって提供されるネットワークロケーションに基づいている。各チェックインは、ユーザポイントまたは他のタイプの報酬を与える。 [0005] Similarly, a "Pin It" button on a computer or mobile device allows the user to capture images and videos from around the web and add them to the online pinboard created by the user. .. Other users can see the pinboard, comments, and "re-pin". The ability to allow people to interact with their environment using mobile devices has also been introduced. For example, location-based social networking websites "check in" where users use mobile websites, text messaging, or device-specific applications by selecting from a list of places where the application is located nearby. Allows you to. The location is based on the GPS hardware in the mobile device, or the network location provided by the application. Each check-in rewards user points or other types of rewards.
[0006]テクノロジーにおけるこれらの進歩によってでも、ユーザ経験、有効性、およびソーシャルメディア、ロケーション、または経験のユーザビリティを測定および評価する能力は制限されている。実際、ウェブサイトおよび他の対話型インターネットおよびソフトウェア媒体のユーザ経験、有効性、およびユーザビリティを測定または評価するための現在の方法論は、従来の自己報告、すなわち、ユーザが「いいね」ボタンを使用し、エラー、バイアス、または低コンプライアンスの影響下にあるかもしれないソーシャルメディアに対する彼/彼女の実際の応答を正確に反映することに依存することにこれまで限定されてきた。 [0006] Even with these advances in technology, the ability to measure and evaluate user experience, effectiveness, and usability of social media, location, or experience is limited. In fact, the current methodology for measuring or assessing user experience, effectiveness, and usability of websites and other interactive internet and software media is traditional self-reporting, ie, users using the Like button. However, it has been limited to relying on accurately reflecting his / her actual response to social media that may be under the influence of errors, biases, or low compliance.
[0007]ソーシャルネットワークサイトおよびサービスの人気および成長は、ここ数年にわたって劇的に増加している。現在のソーシャルネットワークサイトは、Facebook(登録商標)、Google+(登録商標)、Twitter(登録商標)、MySpace(登録商標)、YouTube(登録商標)、LinkedIn(登録商標)、Flicker(登録商標)、Jaiku(登録商標)、MYUBO(登録商標)、Bebo(登録商標)、およびこれらに類するものを含む。そのようなソーシャルネットワーキング(SNET)サイトは、通常、ウェブベースであり、ネットワークのメンバーによってアクセス可能なユーザプロフィールおよび/またはコンテンツのコレクションの周りに構成される。このようなソーシャルネットワークにおけるメンバーシップは、個人または個人のグループから構成され、個人または個人のグループは、一般に、プロフィールページによって表され、ソーシャルネットワーキングサービスによって決定されるように対話することを許可される。 [0007] The popularity and growth of social network sites and services has increased dramatically over the last few years. Current social network sites are Facebook®, Google+®, Twitter®, MySpace®, YouTube®, LinkedIn®, Flicker®, and Jaiku. Includes (registered trademark), MYUBO (registered trademark), Bebo (registered trademark), and the like. Such social networking (SNET) sites are typically web-based and are configured around a collection of user profiles and / or content accessible by members of the network. Membership in such social networks consists of individuals or groups of individuals, who are generally represented by profile pages and are allowed to interact as determined by social networking services. ..
[0008]多くの人気のあるソーシャルネットワーク、特にプロフィールに焦点を当てたソーシャルネットワークでは、活動は、メンバーがプロフィールを閲覧し、連絡先のネットワークにわたって活動、関心、意見、ステータス更新、オーディオ/ビデオコンテンツ等を通信および共有することを可能にするウェブページまたはソーシャル空間を中心とする。ソーシャルネットワーキングサービスはまた、メンバーがソーシャルネットワークの他のメンバーのある活動を追跡し、協力し、既存の友人、かつての知人、および同僚を探してつながり、他のメンバーとの新しいつながりを確立することを可能にするかもしれない。 [0008] In many popular social networks, especially those that focus on profiles, activities include activities, interests, opinions, status updates, audio / video content across the network of contacts where members view their profiles. Focus on web pages or social spaces that allow you to communicate and share such things. Social networking services also allow members to track and collaborate on certain activities of other members of the social network, find and connect with existing friends, former acquaintances, and colleagues, and establish new connections with other members. May be possible.
[0009]したがって、様々なセンサをコンピューティングデバイスに統合し、ソーシャルネットワークプラットフォームと協働し、「いいね」ボタンを除去して、それをすべての経験にわたる感情的な反応の連続ストリームで置き換えるような様々な機能を実行することができるシステムおよび方法が技術的に必要とされている。ユーザが無意識に自分の現在の経験、例えば、ウェブページ、「アプリ」、曲、ビデオ、ロケーション、または他の体験を好き(または嫌い)であるときを決定し、また、リアルタイムで、特に他のユーザの感情の情報に基づいて、ユーザのストレスレベルおよび幸福を遠隔監視する、スマートフォン、タブレット、および他のソーシャルメディア対応デバイスに組み込まれたアプリケーションの生体認証使用可能スイート(suite)も技術的に必要とされている。さらに、ソーシャルネットワークプラットフォーム上で共有される、またはメッセージング/オーディオ記録アプリケーション上で2人のユーザ間で私的に共有される投稿およびコンテンツに添付または表される他のユーザの感情データを見ることに応答して、バイオリズムを追跡する動的アプローチのためのシステムおよび方法を提供する必要がある。 [0009] Therefore, integrate various sensors into computing devices, work with social network platforms, remove the Like button and replace it with a continuous stream of emotional reactions across all experiences. There is a technical need for systems and methods that can perform a variety of functions. Determine when users unknowingly like (or dislike) their current experience, such as web pages, "apps", songs, videos, locations, or other experiences, and in real time, especially others. There is also a technical need for a suite of applications built into smartphones, tablets, and other social media-enabled devices that remotely monitor a user's stress levels and well-being based on user emotional information. It is said that. In addition, to see other users' emotional data attached to or represented in posts and content shared on social network platforms or privately shared between two users on messaging / audio recording applications. In response, there is a need to provide systems and methods for dynamic approaches to tracking biorhythms.
[0010]したがって、上記に鑑みて、当業界では、上述の欠点および不備に対処する必要性が長年にわたってある。 [0010] Therefore, in view of the above, there has been a long-standing need in the industry to address the above-mentioned shortcomings and deficiencies.
[0011]従来のおよび伝統的なアプローチのさらなる制限および欠点は、本出願の残りにおいて図面を参照して記載されるように、説明されるシステムと本開示のいくつかの態様との比較を通して当業者に明らかになるであろう。 [0011] Further limitations and disadvantages of conventional and traditional approaches are described here through comparisons of the systems described with some aspects of the present disclosure, as described with reference to the drawings in the rest of the application. It will be revealed to the trader.
[0012]感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するためのシステムが実質的に提供され、特許請求の範囲においてより完全に記載されるように、図面のうちの少なくとも1つに関連して示されるおよび/または説明される。 [0012] A system for integrating emotional data into a social network platform and sharing emotional data on social network platforms connected through communication networks is provided substantially and is described more fully in the claims. As shown and / or described in connection with at least one of the drawings.
[0013]本発明は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法を提供する。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップを含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、ユーザのバイオリズムデータを受信するステップを含む。方法は、統合モジュールを通して感情データを統合するステップを含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップを含む。方法は、感情データ表示モジュールを通してリアルタイムでユーザの感情データを分析して表示するステップを含む。 [0013] The present invention provides a method for integrating emotional data into a social network platform and sharing the emotional data on a social network platform connected through a communication network. The method comprises collecting the user's biorhythm data through a wearable user device configured to be mounted on the user's body, close to the body, or placed (embeddable) in the user's body. .. The method comprises receiving the user's biorhythm data through a computing device communicatively connected to the wearable user device on a communication network. The method involves integrating emotional data through an integration module. The method comprises a step of determining a user's emotional state through an emotional state determination module. The method involves analyzing and displaying the user's emotional data in real time through the emotional data display module.
[0014]統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップから始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップを含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップを含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップを含む。 [0014] The integrated module performs multiple steps, starting with the step of collecting physiological data of at least one physiological characteristic of the user through a physiological data acquisition engine. The method comprises processing physiological data into at least one biological signal through a biological signal generation engine. The method comprises monitoring and measuring biological signals through a score calculation engine to determine at least one score for at least one of a user's emotions and a user's stress. The method integrates the score with at least one of social media posts, text conversations, and multimedia conversations (audio, video) associated with social network platforms through social integration and information overlay engines, and the user's emotions. And includes steps to overlay information about user stress.
[0015]感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップから始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を、関係付けるステップを含む。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップを含む。 [0015] When the emotional state determination module receives biorhythm data from a wearable user device through the analysis module, it performs a plurality of steps starting from the step of analyzing the user's emotional state. The method is one or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one or more to the post on the social network platform through the emotion module. Includes a step of associating the analyzed emotional state of the user corresponding to at least one of the responses of. The method comprises displaying a representation of the user's emotional state on a social network platform through a display module.
[0016]感情データ表示モジュールは、アルゴリズムモジュールを通して1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算するステップから始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップを含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。 [0016] The emotion data display module performs a plurality of steps starting from the step of analyzing the biorhythm data and calculating the user's emotion score in order to generate one or more insights through the algorithm module. The emotion score indicates the emotional state of the user during the dialogue. The method comprises a step of visually representing multiple emotional cycles during a particular amount of time about the user through a visualization module. The visualization module displays the user's insights and emotion scores on the computing device associated with the user.
[0017]一態様では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。 [0017] In one aspect, the emotion module facilitates the user initiating a command that associates the user's emotional state with the post shared by the user and the content shared with the user.
[0018]一態様では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。 [0018] In one aspect, the display module displays an emotional state representation of a post shared by the user and content shared with the user upon receiving a request command from the user.
[0019]一態様では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で表示する。 [0019] In one aspect, the visualization module uses at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols including a color or a moving shape. The data is displayed in multiple ways on at least one of a two-dimensional (2D) graph and a three-dimensional (3D) graph.
[0020]一態様では、感情データは、脳波図(EEG)センサ、検流計センサ、心電計センサ、心拍数センサ、視線追跡センサ、血圧センサ、歩数計、ジャイロスコープ、および他の何らかのタイプのセンサのような、1つ以上の生体信号センサを使用することによって取得できる。センサは、ユーザによって装着されるウェアラブルヘッドセット、リング、時計、ブレスレット、および/またはヘッドバンドのようなウェアラブルユーザデバイスに接続されてもよい。センサは、ワイヤによってまたはワイヤレスでウェアラブルユーザデバイスに接続されてもよい。 [0020] In one aspect, emotional data can be a brain wave (EEG) sensor, a galvanometer sensor, an electrocardiograph sensor, a heart rate sensor, a line-of-sight tracking sensor, a blood pressure sensor, a pedometer, a gyroscope, and some other type. It can be obtained by using one or more biometric sensor such as the sensor of. The sensor may be connected to a wearable user device such as a wearable headset, ring, watch, bracelet, and / or headband worn by the user. The sensor may be connected to the wearable user device by wire or wirelessly.
[0021]一態様では、医療専門家は、ユーザ(患者)の感情状態/生体測定情報のオーバーレイを、彼らの日のビジュアルダイアリー(visual diary)上に見ることができる。この情報は、患者を理解し、パターンを認識し、状況を視覚化する際に使用することができる。同様に、ユーザの感情状態/意識レベルのオーバーレイは、リアルタイムでユーザから収集されたバイオリズムデータを統合することによって、任意のウェブまたはモバイルアプリケーション上に示すことができる。 [0021] In one aspect, the medical professional can see an overlay of the user's (patient's) emotional state / biometric information on their day's visual diary. This information can be used to understand the patient, recognize patterns, and visualize the situation. Similarly, an overlay of a user's emotional state / consciousness level can be shown on any web or mobile application by integrating biorhythm data collected from the user in real time.
[0022]一態様では、第2のユーザの感情に関する情報は、任意のソーシャルメディアウェブサイト、ポータルまたはチャネル上で公開および/または投稿されることができる。情報は、テキストメッセージ、スカイプチャットもしくはコール、および/または他の何らかの形態のインスタントメッセージングもしくは通信と、オーバーレイおよび/または統合することができる。 [0022] In one aspect, information about the second user's emotions can be published and / or posted on any social media website, portal or channel. Information can be overlaid and / or integrated with text messages, Skype chat or calls, and / or some other form of instant messaging or communication.
[0023]一態様では、ユーザの感情は、二次ユーザの感情に基づいて動的に追跡できる。 [0023] In one aspect, the user's emotions can be dynamically tracked based on the secondary user's emotions.
[0024]一態様では、スコアは、数値として、ならびに怒り、悲しみ、および幸福等のような感情を図示する写真として表されてもよい。 [0024] In one aspect, the score may be expressed numerically and as a photograph illustrating emotions such as anger, sadness, and happiness.
[0025]本発明の別の態様は、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するシステムに関する。システムは、ウェアラブルユーザデバイスおよびコンピューティングユニットを含む。ウェアラブルユーザデバイスは、ユーザの生体リズムデータを収集するために、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成される。コンピューティングユニットは、通信ネットワーク上でユーザのバイオリズムデータを受信するためにウェアラブルユーザデバイスと通信可能に接続される。コンピューティングユニットは、プロセッサと、プロセッサに結合されたメモリとを含む。メモリは、統合モジュールと、感情状態決定モジュールと、感情データ表示モジュールとを含む。統合モジュールは、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュールは、ユーザの感情状態を決定する。感情データ表示モジュールは、ユーザの感情データをリアルタイムで分析して表示する。 [0025] Another aspect of the invention relates to a system that integrates emotional data into a social network platform and shares emotional data on social network platforms connected through a communication network. The system includes wearable user devices and computing units. The wearable user device is configured to be worn near the body of the user or placed (embedded) in the body of the user in order to collect the biorhythm data of the user. The computing unit is communicably connected to the wearable user device to receive the user's biorhythm data over the communication network. The computing unit includes a processor and memory coupled to the processor. The memory includes an integrated module, an emotional state determination module, and an emotional data display module. The integration module integrates emotional data into social network platforms. The emotional state determination module determines the emotional state of the user. The emotion data display module analyzes and displays the user's emotion data in real time.
[0026]統合モジュールは、生理学的データ収集エンジンと、生体信号生成エンジンと、スコア計算エンジンと、ソーシャル統合および情報オーバーレイエンジンとを含む。理学的データ収集エンジンは、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジンは、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジンは、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジンは、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。 [0026] The integration module includes a physiological data acquisition engine, a biological signal generation engine, a score calculation engine, and a social integration and information overlay engine. The physical data acquisition engine collects physiological data of at least one physiological characteristic of the user. The biological signal generation engine processes physiological data into at least one biological signal. The score calculation engine monitors and measures biological signals to determine at least one score for at least one of the user's emotions and the user's stress. The social integration and information overlay engine integrates the score with at least one of the social media posts, text conversations, and multimedia conversations (audio, video) associated with the social network platform, the user's emotions and the user's. Overlay information about stress.
[0027]感情状態決定モジュールは、分析モジュールと、感情モジュールと、表示モジュールとを含む。分析モジュールは、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュールは、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。表示モジュールは、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。 [0027] The emotional state determination module includes an analysis module, an emotional module, and a display module. Upon receiving the biorhythm data from the wearable user device, the analysis module analyzes the emotional state of the user. Emotion modules are one or more posts shared by users, one or more content shared by users, one or more reactions to posts, and one or more responses to posts on social network platforms. Associate the analyzed emotional state of the user corresponding to at least one of them. The display module displays an expression of a user's emotional state on a social network platform.
[0028]感情データ表示モジュールは、アルゴリズムモジュールおよび視覚化モジュールを含む。アルゴリズムモジュールは、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。 [0028] The emotion data display module includes an algorithm module and a visualization module. The algorithm module analyzes the biorhythm data and calculates the user's emotion score to generate one or more insights. The emotion score indicates the emotional state of the user during the dialogue. The visualization module visually represents multiple emotional cycles during a particular amount of time about the user. The visualization module displays the user's insights and emotion scores on the computing device associated with the user.
[0029]したがって、本発明の1つの利点は、複数のユーザ間のコミュニケーションを強化し、ユーザ間の人間のつながりおよび認識を高めることである。 [0029] Therefore, one advantage of the present invention is to enhance communication between a plurality of users and enhance human connection and recognition between users.
[0030]したがって、本発明の1つの利点は、バイオリズムを使用し、そのような情報をインターネット上で他者と共有する人の感情を監視することである。より具体的には、本発明は、ユーザのバイオリズムを測定し、ソーシャルメディアネットワーク上で共有することに関する。 [0030] Therefore, one advantage of the present invention is to use biorhythms to monitor the emotions of those who share such information with others on the Internet. More specifically, the present invention relates to measuring a user's biorhythm and sharing it on a social media network.
[0031]したがって、本発明の1つの利点は、ユーザが感情データを共有するソーシャルプラットフォームをユーザに提供し、他のユーザがそれを視覚化して感情状態を改善し、それに取り組むことを可能にすることである。 [0031] Therefore, one advantage of the present invention is to provide the user with a social platform for sharing emotional data, allowing other users to visualize it to improve and address emotional states. That is.
[0032]したがって、本発明の1つの利点は、ユーザのバイオリズムに基づいてユーザの感情状態を決定し、ソーシャルネットワークプラットフォームを介して感情状態を他のユーザに中継することである。 [0032] Therefore, one advantage of the present invention is to determine a user's emotional state based on the user's biorhythm and relay the emotional state to other users via a social network platform.
[0033]したがって、本発明の1つの利点は、ユーザの感情データを周期的に提供して、ユーザが自分の感情的および心理的状態を経時的に最適化するのを助け、ユーザがより一貫して肯定的な状態を感じることを可能にすることである。 [0033] Therefore, one advantage of the present invention is to provide the user's emotional data periodically to help the user optimize his or her emotional and psychological state over time, allowing the user to be more consistent. To make it possible to feel a positive state.
[0034]本発明の実施形態の他の特徴が、添付の図面から、および以下の詳細な説明から明らかになるだろう。 [0034] Other features of the embodiments of the present invention will be apparent from the accompanying drawings and from the detailed description below.
[0035]本発明のさらに他の目的および利点は、詳細な説明に続いて当業者に容易に明らかになるだろう。本発明の好ましい実施形態は、本発明を実施するためにここ企図される最良のモードの単なる例示として示され、説明される。解されるように、本発明は、他の異なる実施形態が可能であり、そのいくつかの詳細は、すべて本発明から逸脱することなく、様々な明らかな点において修正が可能である。したがって、図面およびその説明は、制限としてではなく、本質的には例示的なものとして見なされるべきである。 Still other objects and advantages of the present invention will be readily apparent to those of skill in the art following a detailed description. Preferred embodiments of the present invention are shown and illustrated merely as illustrations of the best modes contemplated herein for carrying out the present invention. As will be appreciated, the invention is capable of other different embodiments, all of which can be modified in various obvious ways without departing from the invention. Therefore, the drawings and their description should be viewed as exemplary in nature, not as a limitation.
[0036]図面では、類似したコンポーネントおよび/または特徴は、同じ参照ラベルを有しているかもしれない。さらに、同じタイプのさまざまなコンポーネントは、同様なコンポーネントから区別する第2のラベルが参照ラベルに続くことにより区別できる。本明細書で第1の参照ラベルのみが用いられている場合には、その説明は、第2の参照ラベルにかかわらず同じ第1の参照ラベルを有する類似のコンポーネントの何れか1つに適用するものである。
[0044]本開示は、ここに記載される詳細な図および説明を参照して最もよく理解される。面を参照して様々な実施形態を説明してきた。しかしながら、当業者は、図面に関してここで提供される詳細な説明が単に説明目的のためであり、方法およびシステムは説明される実施形態を超えて拡張されてもよいことを容易に理解するであろう。例えば、提示される教示および特定の用途の必要性は、ここに説明される任意の詳細の機能性を実現するための複数の代替および適切なアプローチをもたらすことができる。したがって、任意のアプローチは、以下の実施形態におけるあるインプリメンテーション選択を超えて拡張することができる。 [0044] The present disclosure is best understood with reference to the detailed figures and description provided herein. Various embodiments have been described with reference to the surface. However, one of ordinary skill in the art will readily appreciate that the detailed description provided herein with respect to the drawings is for illustration purposes only and that the methods and systems may be extended beyond the embodiments described. Let's do it. For example, the teachings presented and the needs of a particular application can provide multiple alternatives and appropriate approaches to achieve the functionality of any detail described herein. Therefore, any approach can be extended beyond certain implementation choices in the following embodiments.
[0045]「1つの実施形態」、「少なくとも1つの実施形態」、「実施形態」、「1つの例」、「例」、「例えば」などへの言及は、実施形態または例が特定の特徴、構造、特性、性質、要素、または限定を含んでいてもよいが、すべての実施形態または例が必ずしもその特定の特徴、構造、特性、性質、要素、または限定を含むわけではないことを示す。さらに、「一実施形態において」という語句の繰り返し使用は、必ずしも同じ実施形態を指すものではない。 [0045] References to "one embodiment", "at least one embodiment", "embodiment", "one example", "example", "eg", etc. are characterized by the particular embodiment or example. , Structure, property, property, element, or limitation, but indicates that not all embodiments or examples necessarily include that particular feature, structure, property, property, element, or limitation. .. Moreover, repeated use of the phrase "in one embodiment" does not necessarily refer to the same embodiment.
[0046]本発明の方法は、選択されたステップまたはタスクを手動で、自動で、またはそれらの組合せで実行または完了することによって実現できる。「方法」という用語は、本発明が属する技術の当業者によって知られているか、または知られている方法、手段、技術および手順から容易に開発される方法、手段、技術および手順を含むがこれらに限定されない所与のタスクを達成するための方法、手段、技術および手順を指す。特許請求の範囲および明細書に提示される説明、例、方法、および材料は、限定としてではなく、むしろ例示としてのみ解釈されるべきである。当業者は、ここで説明されるテクノロジーの範囲内で多くの他の可能なバリエーションを想定するであろう。 [0046] The method of the present invention can be realized by performing or completing selected steps or tasks manually, automatically, or in combination thereof. The term "method" includes methods, means, techniques and procedures readily developed from methods, means, techniques and procedures known or known by those skilled in the art to which the present invention belongs. Refers to methods, means, techniques and procedures for accomplishing a given task, not limited to. The statements, examples, methods, and materials presented in the claims and specification should be construed as illustrative rather than limiting. Those of skill in the art will assume many other possible variations within the scope of the technology described herein.
[0047]図1は、本発明の一実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有する本システム100のブロック図を図示している。システム100は、ウェアラブルユーザデバイス102およびコンピューティングデバイス104を含む。ウェアラブルユーザデバイス102は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置され(埋め込み可能)、ユーザ118のバイオリズムデータを収集するように構成される。ウェアラブルユーザデバイス102の例は、埋め込み可能なワイヤレスセンサデバイス、スマートウォッチ、スマートジュエリー、フィットネストラッカー、スマートクロス等を含むが、これらに限定されない。実施形態では、ウェアラブルユーザデバイス102は、ユーザ118の感情に関する1つ以上のパラメータを検出するための様々なセンサを含む。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するためにユーザ118の身体の周囲に固定されることができる、可撓性本体を含んでもよい。一実施形態では、ウェアラブルユーザデバイス102は、バイオリズムデータを収集するために加速度計およびジャイロスコープを含んでいてもよい。一実施形態では、ウェアラブルユーザデバイス102は、ウェアラブルユーザデバイス102をユーザ118の手首の周りに閉ループで固定するための固定機構を含んでいてもよい。さらに、ウェアラブルユーザデバイス102は、皮膚上に直接印刷されるオンボディステッカーもしくは3D印刷デバイス、または接着剤を用いて身体上に配置されるデバイスのような任意のウェアラブルであってもよい。ウェアラブルユーザデバイス102は、コンピューティングユニット104との通信を確立するために、様々なワイヤードまたはワイヤレス通信プロトコルを利用してもよい。
[0047] FIG. 1 is a block diagram of the
[0048]コンピューティングデバイス104は、通信ネットワーク106上でユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102と通信可能に接続される。通信ネットワーク106は、ワイヤードまたはワイヤレスネットワークであってもよく、例は、インターネット、ワイヤレスローカルエリアネットワーク(WLAN)、Wi−Fi、ロングタームエボリューション(LTE(登録商標))、マイクロ波アクセスのための世界相互運用(WiMAX)、汎用パケット無線サービス(GPRS)、Bluetooth(登録商標)(BT)通信プロトコル、送信制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、Z-Wave、スレッド、5G、USB、シリアル、RS232、NFC、RFID、WAN、および/またはIEEE802.11、802.16、2G、3G、4Gセルラ通信プロトコルを含んでいてもよいが、これらに限定されない。
[0048] The computing device 104 is communicably connected to the wearable user device 102 to receive the user's biorhythm data on the
[0049]コンピューティングデバイス104の例は、ラップトップ、デスクトップ、スマートフォン、スマートデバイス、スマートウォッチ、ファブレット、およびタブレットを含むがこれらに限定されない。コンピューティングデバイス104は、プロセッサ110、プロセッサ110に通信可能に結合されたメモリ112、およびユーザインターフェース114を含む。コンピューティングデバイス104は、データベース114に通信可能に結合される。データベース116は、感情データと、さらなる分析および予測のために使用することができる照会データとを受信して記憶し、それにより、本システムは、履歴感情データを使用することによって分析を学習および改善することができる。本主題事項は、本システム100がクラウドデバイス上で実現されることを考慮して説明されるが、本システム100はまた、Amazon Elastic Compute Cloud(Amazon EC2)、ネットワークサーバ、およびこれらに類するもののような種々のコンピューティングシステム内で実現されてもよいことを理解されたい。
[0049] Examples of computing devices 104 include, but are not limited to, laptops, desktops, smartphones, smart devices, smart watches, phablets, and tablets. The computing device 104 includes a
[0050]プロセッサ110は、ユーザまたはシステムが生成した要求を実行するためのプログラムコンポーネントを実行するための少なくとも1つのデータプロセッサを含んでいてもよい。ユーザは、人、本発明に含まれるもののようなデバイスを使用する人、またはそのようなデバイス自体を含むことができる。プロセッサ110は、統合システム(バス)コントローラ、メモリ管理制御ユニット、浮動小数点ユニット、グラフィックス処理ユニット、デジタル信号処理ユニット等のような専用処理ユニットを含むことができる。
[0050]
[0051]プロセッサ110は、AMD(登録商標)ATHLON(登録商標)マイクロプロセッサ、DURON(登録商標)マイクロプロセッサ、またはOPTERON(登録商標)マイクロプロセッサのようなマイクロプロセッサ、ARMのアプリケーション、組み込みまたはセキュアプロセッサ、IBM(登録商標)POWERPC(登録商標)、INTELのCORE(登録商標)プロセッサ、ITANIUM(登録商標)プロセッサ、XEON(登録商標)プロセッサ、CELERON(登録商標)プロセッサ、または他の一連のプロセッサ等を含んでいてもよい。プロセッサ110は、メインフレーム、分散プロセッサ、マルチコア、並列、グリッド、または他のアーキテクチャを使用して実現されてもよい。いくつかの実施形態は、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)等のような埋め込みテクノロジーを利用してもよい。
[0051]
[0052]プロセッサ110は、I/Oインターフェースを介して1つ以上の入力/出力(I/O)デバイスと通信するように配置されてもよい。I/Oインターフェースは、オーディオ、アナログ、デジタル、RCA、ステレオ、IEEE−1394、シリアルバス、ユニバーサルシリアルバス(USB)、赤外線、PS/2、BNC、同軸、コンポーネント、コンポジット、デジタルビジュアルインターフェース(DVI)、高精細マルチメディアインターフェース(HDMI(登録商標))、RFアンテナ、S−Video、VGA、IEEE802.n/b/g/n/x、Bluetooth(登録商標)、セルラ(たとえば、符号分割多元接続(CDMA)、高速パケットアクセス(HSPA+)、グローバルシステムフォーモバイルコミュニケーション(GSM(登録商標))、ロングタームエボリューション(LTE(登録商標))、WiMAX、またはこれらに類するもの)等のような通信プロトコル/方法を用いてもよいが、これらに限定されない。
[0052]
[0053]メモリ112は不揮発性メモリまたは揮発性メモリであってもよい。揮発性メモリの例は、フラッシュメモリ、リードオンリーメモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、および電気的EPROM(EEPROM(登録商標))メモリを含んでいてもよいが、これらに限定されない。揮発性メモリの例は、ダイナミックランダムアクセスメモリ(DRAM)およびスタティックランダムアクセスメモリ(SRAM)を含んでいてもよいが、これらに限定されない。 [0053] The memory 112 may be a non-volatile memory or a volatile memory. Examples of volatile memories may include flash memory, read-only memory (ROM), programmable ROM (PROM), erasable PROM (EPROM), and electrical EPROM (EEPROM®) memory, although Not limited to these. Examples of volatile memory may include, but are not limited to, dynamic random access memory (DRAM) and static random access memory (SRAM).
[0054]ユーザインターフェース114は、本システムの管理者の要求に従って、統合感情データおよび共有感情データを提示することができる。一実施形態では、ユーザインターフェース(UIまたはGUI)114は、ソーシャルネットワークプラットフォームにアクセスし、接続されたユーザのバイオリズムデータを見るための便利なインターフェースである。バイオリズムデータは、とりわけ、心拍数、心拍変動、皮膚電位(EDA)/電気皮膚反応(GSR)、呼吸数、3D加速度計データ、およびジャイロスコープデータ、体温を含むが、これらに限定されない。バイオリズムデータを処理して、数学的記述またはアルゴリズムに基づいて信号を生成することができる。アルゴリズムは、ソフトウェアを介して導入されてもよい。ウェアラブルユーザデバイス側でデータが処理される可能性がある。データはまた、作用される前に一時的にそこに記憶されてもよい。 [0054] The user interface 114 can present integrated emotion data and shared emotion data according to the request of the administrator of the system. In one embodiment, the user interface (UI or GUI) 114 is a convenient interface for accessing the social network platform and viewing the biorhythm data of the connected user. Biorhythm data includes, but is not limited to, heart rate, heart rate variability, skin potential (EDA) / electroskin response (GSR), respiratory rate, 3D accelerometer data, and gyroscope data, body temperature, among others. Biorhythm data can be processed to generate signals based on mathematical descriptions or algorithms. The algorithm may be introduced via software. Data may be processed on the wearable user device side. The data may also be temporarily stored there before being acted upon.
[0055] 図2は、本開示の1つの実施形態にしたがう、本システムのネットワークインプリメンテーション200を図示している。図2は図1に関連して説明される。コンピューティングデバイス104−1、104−2、および104−Nは、通信ネットワーク106を通してユーザのバイオリズムデータを受信するようにウェアラブルユーザデバイス102−1、102−2、および102−Nと通信可能に接続される。サーバ108は、統合され、共有された感情データを、記憶し、処理する。コンピューティングデバイス104またはウェアラブルユーザデバイス102は、音通知(任意のタイプの音)を開始してもよい。ユーザの現在の感情状態スコアに基づいて、いくつかの異なる挙動のうちの1つを行うようにユーザに通知するために、異なる音がウェアラブルユーザデバイス102のうちの1つ以上によって発せられるべきである。挙動は、1つの挙動に限定されなくてもよく、音は、複数の(多数の)アクションをシグナリングすることができることを理解されたい。音に関係付けられた挙動は、ユーザの所望の/予め設定された感情状態に近づくように、またはより具体的なバイオリズムを変化させる方向に移動するように、ユーザがその挙動を変化させるのに役立つべきである。
[0055] FIG. 2 illustrates a
[0056]一態様では、ウェアラブルユーザデバイス102およびコンピューティングデバイス104のネットワークアーキテクチャは、1つ以上のモノのインターネット(IoT)デバイスを含むことができる。本開示の典型的なネットワークアーキテクチャでは、1つ以上のIoTデバイスを含んでいてもよい送信機、受信機、および/またはトランシーバのような複数のネットワークデバイスを含むことができる。 [0056] In one aspect, the network architecture of the wearable user device 102 and the computing device 104 can include one or more Internet of Things (IoT) devices. A typical network architecture of the present disclosure can include multiple network devices such as transmitters, receivers, and / or transceivers that may include one or more IoT devices.
[0057]一態様では、ウェアラブルユーザデバイス102は、クラウドおよび/またはクラウドサーバならびにIoTデバイスと直接対話することができる。収集されるデータおよび/または情報は、ユーザモバイルおよび/またはポータブルコンピューティングデバイス上に任意のスペースを取ることなく、クラウドサーバ中に直接記憶されてもよい。モバイルおよび/またはポータブルコンピューティングデバイスは、サーバと直接対話し、フィードバックアクティブ化のための情報を受信し、フィードバックをトリガし、フィードバックを配信することができる。フィードバックの例は、一次ウェアラブルデバイス、二次ウェアラブルデバイス、別個のコンピューティングデバイス(すなわちモバイル)、または(コンピューティングデバイスであってもなくてもよい)IoTデバイスからの聴覚フィードバック、触覚フィードバック、触知性フィードバック、振動フィードバック、または視覚フィードバックを含むが、これらに限定されない。 [0057] In one aspect, the wearable user device 102 can interact directly with the cloud and / or cloud server and IoT device. The data and / or information collected may be stored directly in the cloud server without taking up any space on the user mobile and / or portable computing device. Mobile and / or portable computing devices can interact directly with the server to receive information for feedback activation, trigger feedback, and deliver feedback. Examples of feedback are auditory feedback, tactile feedback, and tactile feedback from primary wearable devices, secondary wearable devices, separate computing devices (ie mobile), or IoT devices (which may or may not be computing devices). Includes, but is not limited to, feedback, vibration feedback, or visual feedback.
[0058]ここで使用されるように、IoTデバイスは、感知および/または制御機能とともに、WiFi(登録商標)トランシーバ無線もしくはインターフェース、Bluetooth(登録商標)トランシーバ無線もしくはインターフェース、Zigbee(登録商標)トランシーバ無線もしくはインターフェース、超広帯域(UWB)トランシーバ無線もしくはインターフェース、WiFi−ダイレクトトランシーバ無線もしくはインターフェース、Bluetooth(登録商標)低エネルギー(BLE)トランシーバ無線もしくはインターフェース、ならびに/またはIoTデバイスがワイドエリアネットワークおよび1つ以上の他のデバイスと通信することを可能にする他の何らかのワイヤレスネットワークトランシーバ無線もしくはインターフェースを含むデバイスであることがある。いくつかの実施形態では、IoTデバイスは、セルラネットワークトランシーバまたはインターフェースを含まず、したがって、セルラネットワークと直接通信するように構成されなくてもよい。いくつかの実施形態では、IoTデバイスは、セルラトランシーバ無線を含んでいてもよく、セルラネットワーク無線を使用してセルラネットワークと通信するように構成されてもよい。 As used herein, IoT devices, along with sensing and / or control functions, are WiFi® transceiver radios or interfaces, Bluetooth® transceiver radios or interfaces, Zigbee® transceiver radios. Or an interface, an ultra-broadband (UWB) transceiver radio or interface, a WiFi-direct transceiver radio or interface, a Bluetooth® low energy (BLE) transceiver radio or interface, and / or an IoT device with a wide area network and one or more. It may be a device that includes some other wireless network transceiver radio or interface that allows it to communicate with other devices. In some embodiments, the IoT device does not include a cellular network transceiver or interface and therefore may not be configured to communicate directly with the cellular network. In some embodiments, the IoT device may include a cellular transceiver radio and may be configured to communicate with the cellular network using the cellular network radio.
[0059]ユーザは、ネットワークへのアクセスを可能にするネットワーク接続能力を有する任意の人間−機械インターフェースを含んでいてもよいアクセスデバイスを使用して、コンピューティングデバイスと通信してもよい。たとえば、アクセスデバイスは、スタンドアロンインターフェース(たとえば、セルラ電話機、スマートフォン、ホームコンピュータ、ラップトップコンピュータ、タブレット、パーソナルデジタルアシスタント(PDA)、コンピューティングデバイス、スマートウォッチのようなウェアラブルデバイス、壁パネル、またはこれらに類するもの)、電気機器または他のデバイスに組み込まれたインターフェース(たとえば、テレビジョン、冷蔵庫、セキュリティシステム、ゲームコンソール、ブラウザ、またはこれらに類するもの)、会話またはジェスチャインターフェース(たとえば、Kinect(登録商標)センサ、Wiimote(登録商標)、またはこれらに類するもの)、IoTデバイスインターフェース(たとえば、壁スイッチのようなインターネット対応デバイス、制御インターフェース、または他の適切なインターフェース)、またはこれらに類するものを含んでいてもよい。いくつかの実施形態では、アクセスデバイスは、セルラまたは他のブロードバンドネットワークトランシーバ無線またはインターフェースを含んでいてもよく、セルラまたはブロードバンドネットワークトランシーバ無線を使用して、セルラまたは他のブロードバンドネットワークと通信するように構成されてもよい。いくつかの実施形態では、アクセスデバイスは、セルラネットワークトランシーバ無線機またはインターフェースを含まなくてもよい。 [0059] The user may communicate with the computing device using an access device which may include any human-machine interface having network connectivity capable of allowing access to the network. For example, the access device can be a stand-alone interface (eg, cellular phone, smartphone, home computer, laptop computer, tablet, personal digital assistant (PDA), computing device, wearable device such as smart watch, wall panel, or these. Interfaces built into electrical equipment or other devices (eg, televisions, refrigerators, security systems, game consoles, browsers, or the like), conversational or gesture interfaces (eg, Kinct®). Includes sensors, Wiimote®, or similar), IoT device interfaces (eg, Internet-enabled devices such as wall switches, control interfaces, or other suitable interfaces), or the like. It is also good. In some embodiments, the access device may include a cellular or other broadband network transceiver radio or interface, such that the cellular or broadband network transceiver radio is used to communicate with the cellular or other broadband network. It may be configured. In some embodiments, the access device may not include a cellular network transceiver radio or interface.
[0060]一実施形態では、システムの現在の状態に関する情報をユーザに表示するように構成された入力/表示画面をユーザに提供することができる。入力/表示画面は、入力装置、現在の例ではボタンから入力を取得することができる。入力/表示画面はまた、タッチスクリーンとして構成されてもよく、またはタッチもしくは触覚ベースの入力システムを通してバイタル若しくは生体信号を決定するための入力を受け入れてもよい。入力ボタンおよび/または画面は、ユーザが、必要とされるユーザ入力に関するシステムからの入力プロンプトに応答することを可能にするように構成される。 [0060] In one embodiment, the user may be provided with an input / display screen configured to display information about the current state of the system to the user. The input / display screen can acquire input from an input device, in the current example, a button. The input / display screen may also be configured as a touch screen or may accept input for determining vital or biological signals through a touch or tactile based input system. Input buttons and / or screens are configured to allow the user to respond to input prompts from the system regarding the required user input.
[0061]ユーザに対して画面上に表示できる情報は、例えば、提供された処置の数、生体信号値、バイタル、バッテリー充電レベル、および音量レベルであってもよい。入力/表示画面は、波形発生器または別個のプロセッサとしても使用されてもよいプロセッサから情報を取得してもよい。プロセッサは、表示に利用可能な情報を提供し、ユーザがメニュー選択を開始することを可能にする。入力/表示画面は、バッテリーの電力消費を最小限に抑えるために液晶ディスプレイであってもよい。入力/表示画面および入力ボタンは、低い光レベルでシステムを動作させる能力をユーザに提供するように照明されてもよい。情報は、入力/表示画面の使用を通してユーザから得ることができる。 The information that can be displayed on the screen to the user may be, for example, the number of treatments provided, biological signal values, vitals, battery charge level, and volume level. The input / display screen may obtain information from a waveform generator or a processor that may also be used as a separate processor. The processor provides the information available for display and allows the user to initiate a menu selection. The input / display screen may be a liquid crystal display to minimize battery power consumption. Input / display screens and input buttons may be illuminated to provide the user with the ability to operate the system at low light levels. Information can be obtained from the user through the use of input / display screens.
[0062]図3は、本発明の別の実施形態にしたがう、コンピューティングデバイスのメモリ112内の様々なモジュールのブロック図を図示している。図3は図1に関連して説明される。メモリ110は、統合モジュール202と、感情状態決定モジュール204と、感情データ表示モジュール206とを含む。
[0062] FIG. 3 illustrates a block diagram of various modules in memory 112 of a computing device, according to another embodiment of the invention. FIG. 3 will be described in connection with FIG. The
[0063]統合モジュール202は、感情データをソーシャルネットワークプラットフォームに統合する。感情状態決定モジュール204は、ユーザの感情状態を決定する。感情データ表示モジュール206は、ユーザの感情データをリアルタイムで分析して表示する。 [0063] Integration module 202 integrates emotional data into a social network platform. The emotional state determination module 204 determines the emotional state of the user. The emotion data display module 206 analyzes and displays the user's emotion data in real time.
[0064]統合モジュール202は、生理学的データ収集エンジン208と、生体信号生成エンジン210と、スコア計算エンジン212と、ソーシャル統合および情報オーバーレイエンジン214とを含む。生理学的データ収集エンジン208は、ユーザの少なくとも1つの生理学的特性の生理学的データを収集する。生体信号生成エンジン210は、生理学的データを少なくとも1つの生体信号に処理する。スコア計算エンジン212は、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために生体信号を監視および測定する。ソーシャル統合および情報オーバーレイエンジン214は、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイする。 [0064] The integration module 202 includes a physiological data acquisition engine 208, a biological signal generation engine 210, a score calculation engine 212, and a social integration and information overlay engine 214. The physiological data acquisition engine 208 collects physiological data of at least one physiological characteristic of the user. The biological signal generation engine 210 processes physiological data into at least one biological signal. The score calculation engine 212 monitors and measures biological signals to determine at least one score for at least one of the user's emotions and the user's stress. The social integration and information overlay engine 214 integrates the score with at least one of the social media posts, text conversations, and multimedia conversations (audio, video) associated with the social network platform, the user's emotions and the user. Overlay information about your stress.
[0065]感情状態決定モジュール204は、分析モジュール216と、感情モジュール218と、表示モジュール220とを含む。分析モジュール216は、ウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析する。感情モジュール218は、ソーシャルネットワークプラットフォーム上で、ユーザによって共有されている1つ以上の投稿、ユーザに共有されている1つ以上のコンテンツ、投稿に対する1つ以上の反応、および投稿に対する1つ以上の応答のうちの少なくとも1つに対応するユーザの分析された感情状態を関係付ける。一実施形態では、感情モジュール218は、ユーザが、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドを開始することを容易にする。表示モジュール220は、ソーシャルネットワークプラットフォームにおけるユーザの感情状態の表現を表示する。一実施形態では、表示モジュール220は、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されているコンテンツとを表示する。 [0065] The emotional state determination module 204 includes an analysis module 216, an emotional module 218, and a display module 220. Upon receiving the biorhythm data from the wearable user device, the analysis module 216 analyzes the emotional state of the user. Emotion Module 218 is a social network platform that includes one or more posts shared by users, one or more content shared by users, one or more reactions to posts, and one or more to posts. Correlate the analyzed emotional state of the user corresponding to at least one of the responses. In one embodiment, the emotion module 218 facilitates the user to initiate a command relating the user's emotional state corresponding to the post shared by the user and the content shared to the user. The display module 220 displays an expression of the user's emotional state on the social network platform. In one embodiment, the display module 220 displays an emotional state representation of a post shared by the user and content shared to the user upon receiving a request command from the user.
[0066]感情データ表示モジュール206は、アルゴリズムモジュール222および視覚化モジュール224を含む。アルゴリズムモジュール222は、1つ以上の洞察を生成するために、バイオリズムデータを分析し、ユーザの感情スコアを計算する。感情スコアは、対話の間のユーザの感情状態を示す。視覚化モジュールは、ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表す。視覚化モジュール224は、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュール224は、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。 [0066] The emotion data display module 206 includes an algorithm module 222 and a visualization module 224. The algorithm module 222 analyzes the biorhythm data and calculates the user's emotion score in order to generate one or more insights. The emotion score indicates the emotional state of the user during the dialogue. The visualization module visually represents multiple emotional cycles during a particular amount of time about the user. The visualization module 224 displays the user's insights and emotion scores on the computing device associated with the user. In one embodiment, the visualization module 224 uses emotional data by using at least one of a plurality of alphanumeric characters, a plurality of geometric shapes, a plurality of holograms, and a plurality of symbols including a color or a moving shape. Is displayed in multiple ways on at least one of a two-dimensional (2D) graph and a three-dimensional (3D) graph.
[0067]本明細書は、様々な使用事例をさらに説明する。第1の使用事例では、ユーザは現時点でとても気分がよい。しかし、次の瞬間に、ユーザはソーシャルメディア上の投稿を見たり、彼の友人からテキストを得たり、インターネット上のニュースに関するランダム投稿を見たりする。突然、そのような新しい情報に基づいた感情における変化がある。したがって、ユーザの感情の変化を決定し、同時に任意の二次ユーザと共有する必要がある。 [0067] This specification further describes various use cases. In the first use case, the user feels very good at this point. But in the next moment, the user sees posts on social media, gets text from his friends, and sees random posts about news on the Internet. Suddenly, there are changes in emotions based on such new information. Therefore, it is necessary to determine changes in the user's emotions and at the same time share them with any secondary user.
[0068]一実施形態では、この感情の変化は、動的かつリアルタイムである。この変化は、別のユーザの状態の変化によって生じる。この変化は、ユーザの身体にワイヤレスでまたはワイヤード媒体によって接続されているバイオセンサによって決定される。変化を決定したユーザのバイオリズムの変化および感情の変化は、ユーザが許可を与える場合、第2のユーザへの通信チャネルに伝達される。一実施形態では、閾値を予め決定することができ、閾値に基づいておよび閾値を逸脱すると、システムおよび方法は、ユーザ通信を別のチャネルに変更して、ユーザをリラックスおよび/または落ち着かせる。一実施形態では、他のユーザは、通信チャネル上でユーザの感情についてのスコアに基づいて情報を得ることもできる。 [0068] In one embodiment, this emotional change is dynamic and real-time. This change is caused by a change in the state of another user. This change is determined by a biosensor that is connected to the user's body wirelessly or by a wired medium. Changes in the biorhythm and emotions of the user who have determined the change are transmitted to the communication channel to the second user if the user grants permission. In one embodiment, the threshold can be predetermined and based on the threshold and deviating from the threshold, the system and method change the user communication to another channel to relax and / or calm the user. In one embodiment, other users may also obtain information on the communication channel based on their score about their emotions.
[0069]図4は、本発明の代替実施形態にしたがう、感情データをソーシャルネットワークプラットフォームに統合し、通信ネットワークを通して接続されたソーシャルネットワークプラットフォーム上で感情データを共有するための方法のフローチャート400を図示している。方法は、ユーザの身体上に、身体の近くに装着されるか、またはユーザの身体中に配置される(埋め込み可能)ように構成されたウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップ402を含む。方法は、通信ネットワーク上でウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通してユーザのバイオリズムデータを受信するステップ404を含む。方法は、統合モジュールを通して感情データを統合するステップ406を含む。方法は、感情状態決定モジュールを通してユーザの感情状態を決定するステップ408を含む。方法は、感情データ表示モジュールを通してユーザの感情データをリアルタイムで分析して表示するステップ410を含む。
[0069] FIG. 4 illustrates a
[0070]図5は、本発明の代替実施形態にしたがう、統合モジュールによって実行される複数のステップのフローチャート500を図示している。統合モジュールは、生理学的データ収集エンジンを通してユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップ502から始まる複数のステップを実行する。方法は、生体信号生成エンジンを通して生理学的データを少なくとも1つの生体信号に処理するステップ504を含む。方法は、スコア計算エンジンを通して、ユーザの感情およびユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、生体信号を監視および測定するステップ506を含む。方法は、ソーシャル統合および情報オーバーレイエンジンを通して、スコアを、ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話(オーディオ、ビデオ)のうちの少なくとも1つと統合し、ユーザの感情およびユーザのストレスに関する情報をオーバーレイするステップ508を含む。
[0070] FIG. 5 illustrates a
[0071]図6は、本発明の代替実施形態にしたがう、感情状態決定モジュールによって実行される複数のステップのフローチャート600を図示している。感情状態決定モジュールは、分析モジュールを通してウェアラブルユーザデバイスからバイオリズムデータを受信すると、ユーザの感情状態を分析するステップ602から始まる複数のステップを実行する。方法は、感情モジュールを通してソーシャルネットワークプラットフォーム上で、ユーザによって共有される1つ以上の投稿、ユーザに共有される1つ以上のコンテンツ、投稿に対する1つ以上の反応、投稿に対する1つ以上の応答のステップ604を含む。一実施形態では、感情モジュールは、ユーザによって共有されている投稿と、ユーザに共有されているコンテンツとに対応するユーザの感情状態を関係付けるコマンドをユーザが開始することを容易にする。方法は、表示モジュールを通してソーシャルネットワークプラットフォームにおいてユーザの感情状態の表現を表示するステップ606を含む。一実施形態では、表示モジュールは、ユーザによって共有されている投稿に関する感情状態の表現と、ユーザから要求コマンドを受信するとユーザに共有されるコンテンツとを表示する。
[0071] FIG. 6 illustrates a
[0072]図7は、本発明の代替実施形態にしたがう、感情データ表示モジュールによって実行される複数のステップのフローチャート700を図示している。感情データ表示モジュールは、1つ以上の洞察を生成するために、アルゴリズムモジュールを通してバイオリズムデータを分析し、ユーザの感情スコアを計算して、ステップ702から始まる複数のステップを実行する。感情スコアは、対話の間のユーザの感情状態を示す。方法は、視覚化モジュールを通してユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップ704を含む。視覚化モジュールは、ユーザに関係付けられたコンピューティングデバイス上にユーザの洞察および感情スコアを表示する。一実施形態では、視覚化モジュールは、複数の英数字、複数の幾何学形状、複数のホログラム、および色または移動形状を含む複数のシンボルのうちの少なくとも1つを使用することによって、感情データを2次元(2D)グラフおよび3次元(3D)グラフのうちの少なくとも1つの上で、複数の方法で、表示する。
[0072] FIG. 7 illustrates a
[0073]したがって、本発明は、ユーザがより多くのつながりを追加することを可能にするソーシャルネットワークプラットフォームを提供し、つながりを作るために招待が他のユーザに送信される。他のユーザからの受諾の後、ユーザは、写真、メッセージ、様々な文書ファイルフォーマットまたは画像フォーマットまたはビデオフォーマットの添付ファイル、オーディオクリップ、ビデオ、アニメーション/gifに限定されないが、様々な形式でデータを共有することができる。共有されたデータまたは情報に基づいて、ユーザは、例えば、悲しい、幸せ、笑い、愛、およびこれらに類するものを表す対応するボタンをクリックすることによって、感情アイコンを介して感情および気持ちに応答し、共有することができる。システムは、ユーザが、ソーシャルネットワークにおいて、ユーザによって共有されているコンテンツの一部およびユーザに共有されているコンテンツのうちの少なくとも1つに関するユーザの感情状態を関係付けるように要求することを可能にする。ユーザは、感情アイコンを、コンテンツの一部に隣接してか、コンテンツの一部の上に重ねてのいずれかで配置してもよい。ユーザは、感情アイコンを半透明に変更することができ、または他の何らかの視覚効果を使用して、ソーシャルネットワーク上のコンテンツの一部に応答することができる。 [0073] Accordingly, the present invention provides a social network platform that allows a user to add more connections, and invitations are sent to other users to make connections. After acceptance from other users, users may submit data in various formats, including but not limited to photos, messages, attachments in various document file formats or image formats or video formats, audio clips, videos, animations / gifs. Can be shared. Based on the shared data or information, the user responds to emotions and feelings through the emotion icon, for example by clicking the corresponding button representing sadness, happiness, laughter, love, and the like. , Can be shared. The system allows a user to request that the user's emotional state regarding some of the content shared by the user and at least one of the content shared by the user be associated in a social network. do. The user may place the emotion icon either adjacent to or overlaid on a portion of the content. The user can change the emotion icon to be translucent, or use some other visual effect to respond to some of the content on social networks.
[0074]本発明の実施形態を図示し、説明してきたが、本発明がこれらの実施形態のみに限定されないことは明らかだろう。特許請求の範囲に記載された本発明の範囲から逸脱することなく、多数の修正、変更、バリエーション、置換、および均等物が当業者には明らかであろう。
Although embodiments of the present invention have been illustrated and described, it will be clear that the present invention is not limited to these embodiments alone. Numerous modifications, changes, variations, substitutions, and equivalents will be apparent to those skilled in the art without departing from the scope of the invention described in the claims.
Claims (8)
ユーザのバイオリズムデータを収集するウェアラブルユーザデバイスと、
前記通信ネットワーク上で前記ユーザの前記バイオリズムデータを受信するように前記ウェアラブルユーザデバイスと通信可能に接続されるコンピューティングデバイスとを含み、
前記コンピューティングデバイスは、
プロセッサと、
前記プロセッサに通信可能に結合されたメモリとを含み、ここで、前記メモリは、前記プロセッサによって実行される命令を記憶し、
ここで、前記メモリは、
前記感情データを統合する統合モジュール、
前記統合モジュールは、
前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集する生理学的データ収集エンジンと、
前記生理学的データを少なくとも1つの生体信号に処理する生体信号生成エンジンと、
前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために前記生体信号を監視および測定するスコア計算エンジンと、
前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの前記感情および前記ユーザのストレスに関する情報をオーバーレイするソーシャル統合および情報オーバーレイエンジンとを含み、と、
前記ユーザの感情状態を決定する感情状態決定モジュール、
前記感情状態決定モジュールは、
前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの感情状態を分析する分析モジュールと、
前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるための感情モジュールと、
前記ソーシャルネットワークプラットフォームにおける前記ユーザの感情状態の表現を表示する表示モジュールとを含み、と、
前記ユーザの感情データをリアルタイムで分析して表示する感情データ表示モジュールとを含み、
前記感情データ表示モジュールは、
前記バイオリズムデータを分析し、1つ以上の洞察を生成するために前記ユーザの感情スコアを計算するためのアルゴリズムモジュール、ここで、前記感情スコアは対話の間の前記ユーザの前記感情状態を示し、と、
前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すための視覚化モジュールとを含み、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、システム。 A system that integrates emotional data into a social network platform and shares the emotional data on the social network platform connected through a communication network.
Wearable user devices that collect user biorhythm data,
Includes a wearable user device and a computing device communicably connected to receive the biorhythm data of the user on the communication network.
The computing device is
With the processor
A memory that is communicably coupled to the processor, wherein the memory stores instructions executed by the processor.
Here, the memory is
An integrated module that integrates the emotional data,
The integrated module
A physiological data acquisition engine that collects physiological data of at least one physiological characteristic of the user.
A biological signal generation engine that processes the physiological data into at least one biological signal,
A score calculation engine that monitors and measures the biological signal to determine at least one score for at least one of the user's emotions and the user's stress.
Social integration that integrates the score with at least one of the social media posts, text conversations, and multimedia conversations associated with the social network platform and overlays information about the user's emotions and the user's stress. And including information overlay engine, and,
An emotional state determination module that determines the emotional state of the user,
The emotional state determination module is
Upon receiving the biorhythm data from the wearable user device, an analysis module that analyzes the emotional state of the user and an analysis module.
One or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one or more to the post on the social network platform. An emotional module for associating the analyzed emotional state of the user with at least one of the responses.
A display module that displays an expression of the user's emotional state on the social network platform.
It includes an emotion data display module that analyzes and displays the user's emotion data in real time.
The emotion data display module is
An algorithm module for analyzing the biorhythm data and calculating the user's emotion score to generate one or more insights, wherein the emotion score indicates the user's emotional state during a dialogue. When,
Includes a visualization module for visually representing a plurality of emotional cycles during a particular amount of time for the user, wherein the visualization module is on the computing device associated with the user. A system that displays the user's insights and emotional scores.
ウェアラブルユーザデバイスを通してユーザのバイオリズムデータを収集するステップと、
前記通信ネットワーク上で前記ウェアラブルユーザデバイスと通信可能に接続されたコンピューティングデバイスを通して、前記ユーザの前記バイオリズムデータを受信するステップと、
統合モジュールを通して前記感情データを統合するステップ、
ここで、前記統合モジュールは、
生理学的データ収集エンジンを通して前記ユーザの少なくとも1つの生理学的特性の生理学的データを収集するステップと、
生体信号生成エンジンを通して前記生理学的データを少なくとも1つの生体信号に処理するステップと、
スコア計算エンジンを通して、前記ユーザの感情および前記ユーザのストレスのうちの少なくとも1つに関する少なくとも1つのスコアを決定するために、前記生体信号を監視および測定するステップと、
ソーシャル統合および情報オーバーレイエンジンを通して、前記スコアを、前記ソーシャルネットワークプラットフォームに関係付けられたソーシャルメディア投稿、テキスト会話、およびマルチメディア会話のうちの少なくとも1つと統合し、前記ユーザの感情および前記ユーザのストレスに関する情報をオーバーレイするステップとを含む複数のステップを実行し、
感情状態決定モジュールを通して前記ユーザの感情状態を決定するステップ、
ここで、前記感情状態決定モジュールは、
分析モジュールを通して前記ウェアラブルユーザデバイスから前記バイオリズムデータを受信すると、前記ユーザの前記感情状態を分析するステップと、
感情モジュールを通して前記ソーシャルネットワークプラットフォーム上で、前記ユーザによって共有されている1つ以上の投稿、前記ユーザに共有されている1つ以上のコンテンツ、前記投稿に対する1つ以上の反応、および前記投稿に対する1つ以上の応答のうちの少なくとも1つに対応する前記ユーザの前記分析された感情状態を関係付けるステップと、
表示モジュールを通して前記ソーシャルネットワークプラットフォームにおいて前記ユーザの前記感情状態の表現を表示するステップとを含む複数のステップを実行し、
感情データ表示モジュールを通して前記ユーザの感情データをリアルタイムで分析して表示するステップとを含み、
ここで、前記感情データ表示モジュールは、
前記バイオリズムデータを分析し、アルゴリズムモジュールを通して前記ユーザの感情スコアを計算して1つ以上の洞察を生成するステップ、ここで、前記感情スコアは、対話の間の前記ユーザの前記感情状態を示し、と、
視覚化モジュールを通して前記ユーザについての特定の時間量の間の複数の感情サイクルを視覚的に表すステップとを含む複数のステップを実行し、ここで、前記視覚化モジュールは、前記ユーザに関係付けられた前記コンピューティングデバイス上に前記ユーザの前記洞察および感情スコアを表示する、方法。 A method of integrating emotional data into a social network platform and sharing the emotional data on the social network platform connected through a communication network.
Steps to collect user biorhythm data through a wearable user device,
A step of receiving the biorhythm data of the user through a computing device communicably connected to the wearable user device on the communication network.
Steps to integrate the emotional data through the integration module,
Here, the integrated module is
A step of collecting physiological data of at least one physiological characteristic of the user through a physiological data acquisition engine.
A step of processing the physiological data into at least one biological signal through a biological signal generation engine.
A step of monitoring and measuring the biological signal to determine at least one score for at least one of the user's emotions and the user's stress through a score calculation engine.
Through social integration and information overlay engines, the score is integrated with at least one of the social media posts, text conversations, and multimedia conversations associated with the social network platform, and the emotions of the user and the stress of the user. Perform multiple steps, including a step that overlays information about
A step of determining the user's emotional state through the emotional state determination module,
Here, the emotional state determination module is
Upon receiving the biorhythm data from the wearable user device through the analysis module, the step of analyzing the emotional state of the user and the step of analyzing the emotional state of the user.
One or more posts shared by the user, one or more content shared by the user, one or more reactions to the post, and one to the post on the social network platform through the emotion module. The step of associating the analyzed emotional state of the user corresponding to at least one of the two or more responses.
Performing a plurality of steps, including displaying the expression of the emotional state of the user on the social network platform through the display module.
Including the step of analyzing and displaying the emotion data of the user in real time through the emotion data display module.
Here, the emotion data display module is
A step of analyzing the biorhythm data and calculating the user's emotion score through an algorithm module to generate one or more insights, wherein the emotion score indicates the user's emotional state during a dialogue. When,
A plurality of steps are performed through the visualization module, including a step that visually represents a plurality of emotional cycles for a particular amount of time for the user, wherein the visualization module is associated with the user. A method of displaying the user's insights and emotion scores on the computing device.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862734571P | 2018-09-21 | 2018-09-21 | |
US201862734587P | 2018-09-21 | 2018-09-21 | |
US201862734608P | 2018-09-21 | 2018-09-21 | |
US62/734,608 | 2018-09-21 | ||
US62/734,587 | 2018-09-21 | ||
US62/734,571 | 2018-09-21 | ||
PCT/IB2019/058002 WO2020058942A1 (en) | 2018-09-21 | 2019-09-21 | System and method to integrate emotion data into social network platform and share the emotion data over social network platform |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022502803A true JP2022502803A (en) | 2022-01-11 |
JPWO2020058942A5 JPWO2020058942A5 (en) | 2022-10-26 |
Family
ID=69888614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541326A Pending JP2022502803A (en) | 2018-09-21 | 2019-09-21 | Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms |
Country Status (9)
Country | Link |
---|---|
US (1) | US20220036481A1 (en) |
EP (1) | EP3854030A4 (en) |
JP (1) | JP2022502803A (en) |
KR (1) | KR20210098953A (en) |
CN (1) | CN113287281A (en) |
BR (1) | BR112021005414A2 (en) |
CA (1) | CA3113729A1 (en) |
MX (1) | MX2021003336A (en) |
WO (1) | WO2020058942A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502805A (en) * | 2018-09-21 | 2022-01-11 | カーティス、スティーブ | Systems and methods for distributing revenue among users based on quantified and qualified emotional data |
US11531394B2 (en) * | 2020-09-09 | 2022-12-20 | Emotional Imaging Inc. | Systems and methods for emotional-imaging composer |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853259A (en) * | 2009-03-31 | 2010-10-06 | 国际商业机器公司 | Methods and device for adding and processing label with emotional data |
US20140221866A1 (en) * | 2010-06-02 | 2014-08-07 | Q-Tec Systems Llc | Method and apparatus for monitoring emotional compatibility in online dating |
US10799168B2 (en) * | 2010-06-07 | 2020-10-13 | Affectiva, Inc. | Individual data sharing across a social network |
US20130198694A1 (en) * | 2011-06-10 | 2013-08-01 | Aliphcom | Determinative processes for wearable devices |
US10009644B2 (en) * | 2012-12-04 | 2018-06-26 | Interaxon Inc | System and method for enhancing content using brain-state data |
US10365716B2 (en) * | 2013-03-15 | 2019-07-30 | Interaxon Inc. | Wearable computing apparatus and method |
US10120413B2 (en) * | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
SG10201407018YA (en) * | 2014-10-28 | 2016-05-30 | Chee Seng Keith Lim | System and method for processing heartbeat information |
US20210005224A1 (en) * | 2015-09-04 | 2021-01-07 | Richard A. ROTHSCHILD | System and Method for Determining a State of a User |
CN105391843A (en) * | 2015-09-28 | 2016-03-09 | 努比亚技术有限公司 | Terminal device, information issuing method and information issuing system |
CN105726045A (en) * | 2016-01-28 | 2016-07-06 | 惠州Tcl移动通信有限公司 | Emotion monitoring method and mobile terminal thereof |
US20170374498A1 (en) * | 2016-04-29 | 2017-12-28 | Shani Markus | Generic software-based perception recorder, visualizer, and emotions data analyzer |
US10762429B2 (en) * | 2016-05-18 | 2020-09-01 | Microsoft Technology Licensing, Llc | Emotional/cognitive state presentation |
CN109803572A (en) * | 2016-07-27 | 2019-05-24 | 生物说股份有限公司 | For measuring and the system and method for managing physiologic emotional state |
US10600507B2 (en) * | 2017-02-03 | 2020-03-24 | International Business Machines Corporation | Cognitive notification for mental support |
-
2019
- 2019-09-21 WO PCT/IB2019/058002 patent/WO2020058942A1/en unknown
- 2019-09-21 US US17/278,516 patent/US20220036481A1/en not_active Abandoned
- 2019-09-21 CN CN201980076440.6A patent/CN113287281A/en active Pending
- 2019-09-21 BR BR112021005414-6A patent/BR112021005414A2/en unknown
- 2019-09-21 JP JP2021541326A patent/JP2022502803A/en active Pending
- 2019-09-21 CA CA3113729A patent/CA3113729A1/en active Pending
- 2019-09-21 KR KR1020217011831A patent/KR20210098953A/en unknown
- 2019-09-21 EP EP19862988.3A patent/EP3854030A4/en not_active Withdrawn
- 2019-09-21 MX MX2021003336A patent/MX2021003336A/en unknown
Also Published As
Publication number | Publication date |
---|---|
BR112021005414A2 (en) | 2021-06-15 |
KR20210098953A (en) | 2021-08-11 |
US20220036481A1 (en) | 2022-02-03 |
EP3854030A1 (en) | 2021-07-28 |
CA3113729A1 (en) | 2020-03-26 |
WO2020058942A1 (en) | 2020-03-26 |
CN113287281A (en) | 2021-08-20 |
EP3854030A4 (en) | 2022-06-22 |
MX2021003336A (en) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Carneiro et al. | Multimodal behavioral analysis for non-invasive stress detection | |
US9204836B2 (en) | Sporadic collection of mobile affect data | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
AU2011329025A1 (en) | Sharing affect across a social network | |
US10431116B2 (en) | Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience | |
US20120083675A1 (en) | Measuring affective data for web-enabled applications | |
US11914784B1 (en) | Detecting emotions from micro-expressive free-form movements | |
US20180276281A1 (en) | Information processing system, information processing method, and storage medium | |
US20220031239A1 (en) | System and method for collecting, analyzing and sharing biorhythm data among users | |
US20210350917A1 (en) | System and method to improve interaction between users through monitoring of emotional state of the users and reinforcement of goal states | |
US10108784B2 (en) | System and method of objectively determining a user's personal food preferences for an individualized diet plan | |
US20230044314A1 (en) | Predictive and interactive diagnostic system | |
JP2022502803A (en) | Systems and methods for integrating emotional data into social network platforms and sharing emotional data on social network platforms | |
US20130052621A1 (en) | Mental state analysis of voters | |
Gay et al. | Using sensors and facial expression recognition to personalize emotion learning for autistic children | |
Vasiljevas et al. | A human-adaptive model for user performance and fatigue evaluation during gaze-tracking tasks | |
Wadhwa et al. | SenseX: design and deployment of a pervasive wellness monitoring platform for workplaces | |
JP2009230363A (en) | Display unit and display method therefor | |
Muehl et al. | Affective brain-computer interfaces: Special Issue editorial | |
WO2014066871A1 (en) | Sporadic collection of mobile affect data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231127 |