JPWO2020065081A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020065081A5
JPWO2020065081A5 JP2021542271A JP2021542271A JPWO2020065081A5 JP WO2020065081 A5 JPWO2020065081 A5 JP WO2020065081A5 JP 2021542271 A JP2021542271 A JP 2021542271A JP 2021542271 A JP2021542271 A JP 2021542271A JP WO2020065081 A5 JPWO2020065081 A5 JP WO2020065081A5
Authority
JP
Japan
Prior art keywords
user
virtual agent
data
visual virtual
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021542271A
Other languages
Japanese (ja)
Other versions
JP7288064B2 (en
JP2022508544A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/EP2019/076332 external-priority patent/WO2020065081A1/en
Publication of JP2022508544A publication Critical patent/JP2022508544A/en
Publication of JPWO2020065081A5 publication Critical patent/JPWO2020065081A5/ja
Application granted granted Critical
Publication of JP7288064B2 publication Critical patent/JP7288064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (15)

ユーザに対する視覚応答を行うように構成され、1つまたは複数のユーザ固有パラメータを経時的に監視するように構成された視覚型仮想エージェントであって、少なくとも1つのユーザ固有パラメータについてのユーザ固有データが、少なくとも1つのセンサで獲得され、前記ユーザ固有パラメータが、前記ユーザの活動データおよび/または前記ユーザの生理心理データを含み、
前記視覚型仮想エージェントが、前記ユーザの現状について、および/または少なくとも1つの視覚型仮想エージェント状態について、ユーザに対する人工生理色彩変化応答を行うように構成され、
前記少なくとも1つの視覚型仮想エージェント状態、および/または前記ユーザの前記現状が、前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データに基づいて判断され、
前記視覚型仮想エージェントが、前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データの監視された変化に前記人工生理色彩変化応答を適合させるように構成され、
前記人工生理色彩変化応答の前記適合が、前記少なくとも1つの視覚型仮想エージェント状態、および/または前記ユーザの前記現状についての、前記視覚型仮想エージェントの色彩変化を少なくとも部分的に含む、
視覚型仮想エージェントを提供するためにコンピュータによって実行される方法であって、
前記コンピュータによって実行される方法は、
ユーザの1つまたは複数のユーザ固有パラメータを、ユーザ固有パラメータ監視構成要素(405)で経時的に監視することであって、前記1つまたは複数のユーザ固有パラメータが、前記ユーザの活動データおよび/または前記ユーザの生理心理データを含む、監視すること、ならびに
少なくとも1つのセンサ(404)によって、少なくとも1つのユーザ固有パラメータについてのユーザ固有データを、前記ユーザ固有パラメータ監視構成要素(405)で獲得すること、
前記ユーザの前記活動データおよび/もしくは前記ユーザの前記生理心理データに基づいて、前記ユーザの現状を、ユーザ現状判断構成要素(416)で判断すること、ならびに/または
前記ユーザの前記活動データおよび/もしくは前記ユーザの前記生理心理データに基づいて、視覚型仮想エージェント状態を、視覚型仮想エージェント状態判断構成要素(417)で判断すること、
前記ユーザの前記判断した現状および/または判断した視覚型仮想エージェント状態についての、前記ユーザの前記監視した1つまたは複数のユーザ固有パラメータを、ユーザ固有データ分析構成要素(403)で分析すること、
前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データの監視された変化を、前記ユーザ固有データ分析構成要素(403)で判断すること、
前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データの前記監視した変化を視覚型仮想エージェント描写構成要素に、前記ユーザ固有データ分析構成要素(403)で提供すること、
前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データの前記監視した変化に前記人工生理色彩変化応答を、前記視覚型仮想エージェント描写構成要素(406)で適合させることであって、前記人工生理色彩変化応答の前記適合が、前記視覚型仮想エージェントの色彩変化を少なくとも部分的に含む、適合させること、
ディスプレイ・デバイス(407)上に前記視覚型仮想エージェントを、前記視覚型仮想エージェント描写構成要素(406)で描写すること
を行うステップを含み、
前記人工生理色彩変化が、前記視覚型仮想エージェントの全体形状にわたって分散した色の流れる変化として定義される、コンピュータによって実行される方法
A visual virtual agent configured to provide a visual response to a user and configured to monitor one or more user-specific parameters over time, wherein user-specific data for at least one user-specific parameter is , obtained with at least one sensor, wherein the user-specific parameters include activity data of the user and/or psychophysiology data of the user;
wherein the visual virtual agent is configured to provide an artificial physiological color change response to the user about the current state of the user and/or about at least one visual virtual agent state;
the at least one visual virtual agent state and/or the current state of the user is determined based on the activity data of the user and/or the psychophysiology data of the user;
the visual virtual agent is configured to adapt the artificial physiological color change response to monitored changes in the user's activity data and/or the user's psychophysiology data;
said adaptation of said artificial physiological color change response includes at least in part a color change of said visual virtual agent for said at least one visual virtual agent state and/or said current state of said user;
A computer implemented method for providing a visual virtual agent, comprising:
The computer-implemented method comprises:
monitoring one or more user-specific parameters of a user over time with a user-specific parameter monitoring component (405), wherein said one or more user-specific parameters are activity data of said user and/or or monitoring, including physiological and psychological data of said user;
obtaining user-specific data for at least one user-specific parameter by at least one sensor (404) at said user-specific parameter monitoring component (405);
determining the user's current state with a user current state determination component (416) based on the user's activity data and/or the user's psychophysiology data; and/or
determining a visual virtual agent state with a visual virtual agent state determination component (417) based on the activity data of the user and/or the psychophysiology data of the user;
analyzing the monitored one or more user-specific parameters of the user for the determined current state and/or determined visual virtual agent state of the user with a user-specific data analysis component (403);
determining monitored changes in the user's activity data and/or the user's psychophysiology data in the user-specific data analysis component (403);
providing the monitored changes in the user's activity data and/or the user's psychophysiology data to a visual virtual agent depiction component at the user-specific data analysis component (403);
adapting the artificial physiological color change response to the monitored changes in the user's activity data and/or the user's psychophysiology data with the visual virtual agent rendering component (406); Adapting, wherein said adaptation of an artificial physiological color change response includes at least in part a color change of said visual virtual agent;
rendering the visual virtual agent on a display device (407) with the visual virtual agent rendering component (406);
and
A computer-implemented method, wherein said artificial physiological color change is defined as a flowing change of color distributed over the overall shape of said visual virtual agent .
前記ユーザの前記判断した現状に基づいて、および/または前記判断した視覚型仮想エージェント状態に基づいて、1つまたは複数のユーザ固有パラメータの選択を、ユーザ固有パラメータ選択構成要素(415)で判断すること
を行うステップをさらに含む、請求項1に記載のコンピュータによって実行される方法。
determining the selection of one or more user-specific parameters based on the determined current state of the user and/or based on the determined visual virtual agent state in a user-specific parameter selection component (415) ; 2. The computer-implemented method of claim 1 , further comprising the step of:
ユーザの前記現状を判断することが、前記ユーザに対する前記人工生理色彩変化応答を生成するための基礎として、1つまたは複数のユーザ固有パラメータの選択を判断することを含む、請求項1に記載のコンピュータによって実行される方法2. The method of claim 1, wherein determining the current state of a user comprises determining selection of one or more user-specific parameters as a basis for generating the artificial physiological color change response for the user. A computer-implemented method . 前記視覚型仮想エージェントが、ユーザの活動データおよび/またはユーザの生理心理データについての複数のユーザ固有パラメータについての複数のデータの監視、収集、および分析を行うように構成され、前記監視、収集、および分析を行った複数のデータに基づいて、前記ユーザの前記現状を判断するように構成され、前記ユーザに対する前記人工生理色彩変化応答を生成するための基礎として、1つまたは複数のユーザ固有パラメータの特定の選択を行うために、前記ユーザ固有パラメータ全体から選択された1つまたは複数のユーザ固有パラメータの選択を判断するように構成される、請求項1に記載のコンピュータによって実行される方法wherein said visual virtual agent is configured to monitor, collect and analyze a plurality of data for a plurality of user-specific parameters of user activity data and/or user psychophysiology data; and one or more user-specific parameters configured to determine the current state of the user based on the analyzed plurality of data, and as a basis for generating the artificial physiological color change response for the user. 2. The computer-implemented method of claim 1, configured to determine a selection of one or more user-specific parameters selected from among the user-specific parameters to make a particular selection of. 前記視覚型仮想エージェントが、ユーザの第1の状態についてのユーザの前記活動データおよび/またはユーザの前記生理心理データからの1つまたは複数のユーザ固有パラメータの第1の選択に基づいて、ユーザに対する人工生理色彩変化応答を行うように構成され、ユーザの第2の状態についてのユーザの前記活動データおよび/またはユーザの生理心理データからの1つまたは複数のユーザ固有パラメータの第2の選択に基づいて、ユーザに対する人工生理色彩変化応答を行うようにさらに構成され、前記視覚型仮想エージェントが、前記ユーザの前記第1の状態と前記ユーザの前記第2の状態との間で変化するように構成される、請求項1に記載のコンピュータによって実行される方法the visual virtual agent for a user based on a first selection of one or more user-specific parameters from the user's activity data and/or the user's psychophysiology data for a first state of the user; configured to provide an artificial physiological color change response, based on a second selection of one or more user-specific parameters from the user's activity data and/or the user's psychophysiological data for a second condition of the user; and further configured to provide an artificial physiological color change response to a user, wherein the visual virtual agent is configured to change between the first state of the user and the second state of the user. 2. The computer-implemented method of claim 1, wherein: 前記視覚型仮想エージェント状態を判断することが、前記ユーザに対する前記人工生理色彩変化応答を生成するための基礎として、1つまたは複数のユーザ固有パラメータの選択を判断することを含み、前記視覚型仮想エージェントが、第1の視覚型仮想エージェント状態についてのユーザの前記活動データおよび/またはユーザの前記生理心理データからの1つまたは複数のユーザ固有パラメータの第1の選択に基づいて、ユーザに対する人工生理色彩変化応答を行うように構成され、第2の視覚型仮想エージェント状態についてのユーザの前記活動データおよび/またはユーザの生理心理データからの1つまたは複数のユーザ固有パラメータの第2の選択に基づいて、ユーザに対する人工生理色彩変化応答を行うようにさらに構成され、前記視覚型仮想エージェントが、前記第1の視覚型仮想エージェント状態と前記第2の視覚型仮想エージェント状態との間で変化するように構成される、請求項1に記載のコンピュータによって実行される方法determining the visual virtual agent state includes determining a selection of one or more user-specific parameters as a basis for generating the artificial physiological color change response for the user; an agent performing artificial physiology for a user based on a first selection of one or more user-specific parameters from the user's activity data and/or the user's psychophysiology data for a first visual virtual agent state; configured to provide a color change response, based on a second selection of one or more user-specific parameters from the user's activity data and/or the user's psychophysiology data for a second visual virtual agent state; and further configured to provide an artificial physiological color change response to a user, such that the visual virtual agent changes between the first visual virtual agent state and the second visual virtual agent state. 2. The computer-implemented method of claim 1, comprising: 前記第1の視覚型仮想エージェント状態が、能動通信視覚型仮想エージェント状態を含み、前記第2の視覚型仮想エージェント状態が、受動または監視視覚型仮想エージェント状態を含む、請求項に記載のコンピュータによって実行される方法7. The computer of claim 6 , wherein the first visual virtual agent state comprises an active communicating visual virtual agent state and the second visual virtual agent state comprises a passive or supervising visual virtual agent state. The method performed by 前記視覚型仮想エージェントが、異なる視覚型仮想エージェント状態およびユーザの異なる状態についての、ユーザの活動データおよび/またはユーザの生理心理データの1つまたは複数のユーザ固有パラメータの異なる特定の選択に基づいて、ユーザに対する異なる人工生理色彩変化応答を行うように構成され、前記視覚型仮想エージェントが、ユーザの現況について、人工生理色彩変化応答を行うために、各視覚型仮想エージェント状態、および/またはユーザの各状態の間で変化するように構成される、請求項1に記載のコンピュータによって実行される方法the visual virtual agent based on different specific selections of one or more user-specific parameters of the user's activity data and/or the user's psychophysiology data for different visual virtual agent states and different states of the user; , configured to provide different artificial physiological color change responses to a user, wherein the visual virtual agent is configured to provide an artificial physiological color change response to the user's current state, each visual virtual agent state, and/or the user's 2. The computer implemented method of claim 1, configured to change between states. 前記視覚型仮想エージェントが、前記ユーザの活動パラメータおよび/または生理心理パラメータの長期の認識および/または測定および/または監視を経時的に提供するように構成され、かつ/または、
前記視覚型仮想エージェントが、前記ディスプレイ・デバイス(407)上に2次元的または3次元的に表示される、請求項1から8のいずれか一項に記載のコンピュータによって実行される方法
the visual virtual agent is configured to provide long-term awareness and/or measurement and/or monitoring of the user's activity and/or psychophysiology parameters over time ; and/or
9. The computer-implemented method of any one of claims 1 to 8 , wherein the visual virtual agent is displayed on the display device (407) two-dimensionally or three-dimensionally .
前記ユーザの前記生理心理データが、前記ユーザの現在の行動および/または現在の生理状態および/または現在の精神状態および/または医学的状態に基づく、請求項1から9のいずれか一項に記載のコンピュータによって実行される方法10. The user's psychophysiology data according to any one of the preceding claims, wherein said user's psychophysiology data is based on said user's current behavioral and/or current physiological and/or current mental and/or medical conditions. computer-implemented method . 前記視覚応答が、前記視覚型仮想エージェントの姿勢および/または動きを含み、前記音響応答が、前記ユーザの前記活動データおよび/または前記ユーザの生理心理に基づいた、前記視覚型仮想エージェントの音、音量、強調、および/またはアクセントを含む、請求項1から1のいずれか一項に記載のコンピュータによって実行される方法sound of the visual virtual agent, wherein the visual response comprises posture and/or movement of the visual virtual agent, and wherein the acoustic response is based on the activity data of the user and/or the psychophysiology of the user; 11. A computer-implemented method according to any one of claims 1 to 10, comprising volume, emphasis and/or accent. 前記少なくとも1つのセンサが、聴覚視覚センサ、活動センサ、生理センサ、生体測定センサ、心拍数センサ、血圧センサ/モニタ、体重計、運動センサ、光センサ、映像センサ、音響センサ、血糖モニタ、血液酸素飽和モニタ、水分モニタ、皮膚温計/体温計、呼吸モニタ、脳波(EEG)電極、ベッド・センサ、加速度計、活動センサ/トラッカ、映像カメラ、深度センサ、皮膚電位活動(EDA)センサ、携帯型全地球測位システム(GPS)センサ、および/またはマイクロフォンを含み、かつ/または、前記少なくとも1つのセンサが、言語認識、顔認識、脈拍測定、呼吸測定、血圧測定、および/または皮膚の電気伝導度の測定によって、前記ユーザの生理心理パラメータを獲得するように構成される、請求項1から1のいずれか一項に記載のコンピュータによって実行される方法The at least one sensor is an audiovisual sensor, an activity sensor, a physiological sensor, a biometric sensor, a heart rate sensor, a blood pressure sensor/monitor, a weight scale, a motion sensor, an optical sensor, a video sensor, an acoustic sensor, a blood glucose monitor, and a blood oxygen sensor. Saturation monitor, moisture monitor, skin thermometer/thermometer, respiration monitor, electroencephalogram (EEG) electrodes, bed sensor, accelerometer, activity sensor/tracker, video camera, depth sensor, electrodermal activity (EDA) sensor, portable all a global positioning system (GPS) sensor and/or a microphone , and/or wherein the at least one sensor is speech recognition, face recognition, pulse measurement, respiration measurement, blood pressure measurement, and/or electrical conductivity of the skin 12. A computer-implemented method according to any one of claims 1 to 11 , configured to obtain a psychophysiological parameter of the user by measuring a . 前記視覚型仮想エージェントが、第1の色値から第2の色値までの範囲の前記視覚型仮想エージェントの色彩変化を少なくとも部分的に含んだ色彩変化応答を行うように構成され、前記第1の色値から前記第2の色値までの前記範囲が、複数の区間に再分割され、各区間およびその後の区間について、特定量のピクセルが、前記第2の色値に適合され、前記視覚型仮想エージェントが、前記視覚型仮想エージェントのピクセルの100%を使って前記第1の色で描写され、前記第1の色値から前記第2の色値までの前記範囲における前記区間のそれぞれについて、ピクセルの少なくとも一部が加わり、前記第2の色値に達するまで、前記第2の色で描写され、前記第2の色値に達すると、前記視覚型仮想エージェントのピクセルの100%が、前記第2の色で描写される、請求項1から1のいずれか一項に記載のコンピュータによって実行される方法The visual virtual agent is configured to provide a color change response that at least partially includes a color change of the visual virtual agent ranging from a first color value to a second color value; to the second color value is subdivided into a plurality of intervals, and for each interval and subsequent intervals a certain amount of pixels are matched to the second color value; type virtual agent is rendered in said first color using 100% of pixels of said visual type virtual agent, and for each of said intervals in said range from said first color value to said second color value; , at least a portion of the pixels are added and rendered in the second color until the second color value is reached, at which point 100% of the pixels of the visual virtual agent are 13. The computer-implemented method of any one of claims 1-12, rendered in the second color. ユーザに対する人工生理色彩変化応答を行う視覚型仮想エージェントを提供するためのシステム(400)であって、
メモリ(409)と、
前記ユーザの少なくとも1つのユーザ固有パラメータについてのセンサ・データを集めるように構成された少なくとも1つのセンサ(404)と、
前記視覚型仮想エージェントを表示するように構成された少なくとも1つのディスプレイ・デバイス(407)と、
前記メモリに記憶された実行可能構成要素を実行するように構成された少なくとも1つのプロセッサ(408)であって、前記実行可能構成要素が、
前記ユーザの1つまたは複数のユーザ固有パラメータを監視するように構成されたユーザ固有パラメータ監視構成要素(405)であって、前記ユーザ固有パラメータ監視構成要素(405)が、前記ユーザの1つまたは複数のユーザ固有パラメータについてのユーザ固有データを受け取るように構成され、前記ユーザ固有パラメータが、前記ユーザの活動データおよび/または前記ユーザの生理心理データを含み、少なくとも1つのユーザ固有パラメータについてのユーザ固有データが、少なくとも1つのセンサ(404)から獲得される、ユーザ固有パラメータ監視構成要素(405)
前記ユーザ固有パラメータ監視構成要素(405)で監視した前記ユーザ固有データを分析すること、ならびに、前記ユーザの前記活動データおよび/または前記ユーザの生理心理データの監視された変化を判断することを行うように構成されたユーザ固有データ分析構成要素(403)
前記ユーザの前記活動データおよび/または前記ユーザの前記生理心理データの前記判断した監視された変化に前記人工生理色彩変化応答を適合させるように構成された視覚型仮想エージェント描写構成要素(406)であって、前記人工生理色彩変化応答の前記適合が、前記視覚型仮想エージェントの色彩変化を少なくとも部分的に含む、視覚型仮想エージェント描写構成要素(406)
を備え、
前記ユーザ固有データ分析構成要素(403)が、
前記ユーザ固有パラメータ監視構成要素(405)で監視した前記ユーザ固有データに基づいて、前記ユーザの現状を判断するように構成された、ユーザ現状判断構成要素(416)、および/または
前記ユーザ固有パラメータ監視構成要素(405)で監視した前記ユーザ固有データに基づいて、視覚型仮想エージェントを判断するように構成された視覚型仮想エージェント状態判断構成要素(417)
をさらに備える、
少なくとも1つのプロセッサ(408)
を備え、
前記人工生理色彩変化が、前記視覚型仮想エージェントの全体形状にわたって分散した色の流れる変化として定義される、システム。
A system (400) for providing a visual virtual agent with an artificial physiological color change response to a user, comprising:
a memory (409) ;
at least one sensor (404) configured to collect sensor data about at least one user-specific parameter of said user;
at least one display device (407) configured to display said visual virtual agent;
at least one processor (408) configured to execute executable components stored in said memory, said executable components comprising:
a user-specific parameter monitoring component (405) configured to monitor one or more user-specific parameters of said user, wherein said user-specific parameter monitoring component (405) is configured to monitor one or more user-specific parameters of said user; configured to receive user-specific data for a plurality of user-specific parameters, said user-specific parameters including said user's activity data and/or said user's psychophysiology data, and user-specific for at least one user-specific parameter; a user-specific parameter monitoring component (405) , wherein data is obtained from at least one sensor (404 );
analyzing the user-specific data monitored by the user-specific parameter monitoring component (405) and determining monitored changes in the user's activity data and/or the user's psychophysiology data; a user-specific data analysis component (403) configured to:
a visual virtual agent rendering component (406) configured to match the artificial physiological color change response to the determined monitored changes in the user's activity data and/or the user's psychophysiology data; a visual virtual agent rendering component (406) , wherein said adaptation of said artificial physiological color change response includes at least in part a color change of said visual virtual agent;
with
Said user-specific data analysis component (403) comprises:
a user-specific parameter determination component (416) configured to determine the user's current status based on the user-specific data monitored by the user-specific parameter monitoring component (405) ; and/or the user-specific parameters. a visual virtual agent status determination component (417) configured to determine a visual virtual agent based on said user-specific data monitored by the monitoring component (405) ;
further comprising
at least one processor (408) ;
A system , wherein said artificial physiological color change is defined as a flowing change of color distributed over the overall shape of said visual virtual agent .
前記ユーザ固有データ分析構成要素が、
前記人工生理色彩変化応答を生成するための基礎として、前記1つまたは複数のユーザ固有パラメータからの1つまたは複数のユーザ固有パラメータの選択を判断するように構成されたユーザ固有パラメータ選択構成要素(415)
をさらに備える、請求項1に記載のシステム。
The user-specific data analysis component comprises:
a user-specific parameter selection component ( 415)
15. The system of claim 14 , further comprising:
JP2021542271A 2018-09-27 2019-09-27 visual virtual agent Active JP7288064B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18197392.6 2018-09-27
EP18197392 2018-09-27
PCT/EP2019/076332 WO2020065081A1 (en) 2018-09-27 2019-09-27 Visualized virtual agent

Publications (3)

Publication Number Publication Date
JP2022508544A JP2022508544A (en) 2022-01-19
JPWO2020065081A5 true JPWO2020065081A5 (en) 2022-10-04
JP7288064B2 JP7288064B2 (en) 2023-06-06

Family

ID=63896031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542271A Active JP7288064B2 (en) 2018-09-27 2019-09-27 visual virtual agent

Country Status (5)

Country Link
US (1) US11766224B2 (en)
EP (1) EP3856012B1 (en)
JP (1) JP7288064B2 (en)
CN (1) CN113164052A (en)
WO (1) WO2020065081A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10987592B1 (en) * 2020-06-05 2021-04-27 12traits, Inc. Systems and methods to correlate user behavior patterns within an online game with psychological attributes of users
WO2022046674A1 (en) * 2020-08-24 2022-03-03 Sterling Labs Llc Devices and methods for motion planning of computer characters
DE112020007584T5 (en) * 2020-11-02 2023-09-07 Harman Becker Automotive Systems Gmbh Configuration of a virtual assistant
US20220394348A1 (en) * 2021-06-02 2022-12-08 Universal Electronics Inc. System and method for using a virtual agent to provide consumer electronic device related technical support

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8033996B2 (en) * 2005-07-26 2011-10-11 Adidas Ag Computer interfaces including physiologically guided avatars
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20100177117A1 (en) * 2009-01-14 2010-07-15 International Business Machines Corporation Contextual templates for modifying objects in a virtual universe
US8579834B2 (en) 2010-01-08 2013-11-12 Medtronic, Inc. Display of detected patient posture state
US20170011258A1 (en) * 2010-06-07 2017-01-12 Affectiva, Inc. Image analysis in support of robotic manipulation
BR112013031381A2 (en) * 2011-06-07 2016-12-06 Nike International Ltd virtual performance system
US9375142B2 (en) * 2012-03-15 2016-06-28 Siemens Aktiengesellschaft Learning patient monitoring and intervention system
US9652992B2 (en) * 2012-10-09 2017-05-16 Kc Holdings I Personalized avatar responsive to user physical state and context
US9199122B2 (en) * 2012-10-09 2015-12-01 Kc Holdings I Personalized avatar responsive to user physical state and context
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
WO2017087567A1 (en) * 2015-11-16 2017-05-26 Cognifisense, Inc. Representation of symptom alleviation
US10664741B2 (en) * 2016-01-14 2020-05-26 Samsung Electronics Co., Ltd. Selecting a behavior of a virtual agent
US10524092B2 (en) 2017-01-12 2019-12-31 Microsoft Technology Licensing, Llc Task automation using location-awareness of multiple devices
EP3629912A4 (en) * 2017-05-30 2021-03-03 InteraXon Inc. Wearable computing device with electrophysiological sensors
JP6298919B1 (en) * 2017-06-07 2018-03-20 スマート ビート プロフィッツ リミテッド Database construction method and database
JP6325154B1 (en) * 2017-06-07 2018-05-16 スマート ビート プロフィッツ リミテッド Information processing system
EP3651647A1 (en) * 2017-07-13 2020-05-20 Bigfoot Biomedical, Inc. Multi-scale display of blood glucose information

Similar Documents

Publication Publication Date Title
CN111867475B (en) Infrasound biosensor system and method
WO2017179703A1 (en) Biological information analysis device and system, and program
RU2602797C2 (en) Method and device for measuring stress
EP3429456B1 (en) A method and apparatus for determining a baseline for one or more physiological characteristics of a subject
CN106999065A (en) Use the wearable pain monitor of accelerometry
JP6166463B2 (en) A method for assessing product effectiveness using objective and non-invasive methods for quantifying itching
US20160242672A1 (en) Vital signal measuring apparatus and method for estimating contact condition
JP2006525829A (en) Intelligent deception verification system
US20190313966A1 (en) Pain level determination method, apparatus, and system
JP2015109964A (en) Emotion estimation device, emotion estimation processing system, emotion estimation method, and emotion estimation program
JP2018082931A (en) Arousal level processing method and arousal level processing apparatus
JP7125050B2 (en) Estimation device, estimation system, estimation method and estimation program
Jiang et al. Automatic sleep monitoring system for home healthcare
JPWO2020065081A5 (en)
US20220346682A1 (en) System for determining an emotion of a user
Hanshans et al. Inducing and measuring acute stress in virtual reality: Evaluation of canonical physiological stress markers and measuring methods
Bujnowski et al. Self diagnostics using smart glasses-preliminary study
KR20220117632A (en) Method and system for providing remote counseling service
CN113194811A (en) Method, device and system for evaluating recovery state of hospital patient and storage medium
CN117158913B (en) Monitoring and evaluating system for physiological condition of children
US11594208B2 (en) Information processing device, sound masking system, control method, and recording medium
WO2023199839A1 (en) Internal state estimation device, internal state estimation method, and storage medium
JP7435965B2 (en) Information processing device, information processing method, learning model generation method, and program
WO2023002664A1 (en) Information processing device, information processing method, and program
WO2023073956A1 (en) Program, information processing method, and information processing device