JPWO2020240470A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020240470A5
JPWO2020240470A5 JP2021571484A JP2021571484A JPWO2020240470A5 JP WO2020240470 A5 JPWO2020240470 A5 JP WO2020240470A5 JP 2021571484 A JP2021571484 A JP 2021571484A JP 2021571484 A JP2021571484 A JP 2021571484A JP WO2020240470 A5 JPWO2020240470 A5 JP WO2020240470A5
Authority
JP
Japan
Prior art keywords
user
housing
head
data
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021571484A
Other languages
Japanese (ja)
Other versions
JP2022535032A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/IB2020/055081 external-priority patent/WO2020240470A1/en
Publication of JP2022535032A publication Critical patent/JP2022535032A/en
Publication of JPWO2020240470A5 publication Critical patent/JPWO2020240470A5/ja
Pending legal-status Critical Current

Links

Claims (27)

ユーザが失見当識を克服するのを支援する方法であって、
ユーザ混乱指数を決定することと、
前記決定されたユーザ混乱指数が予め定めた閾値を満たしたことを受けて、拡張現実の見当識回復グラフィックとして前記ユーザに視認される電磁放射をプロジェクタに放射させて、前記電磁放射が少なくとも部分的にARレンズで反射して補正レンズを介して前記ユーザの眼球に向けられるようにすることと、
含み、
前記ARレンズが、前記ユーザの頭部に装着されるように構成されたフレームに連結される、
方法。
A method of helping a user overcome disorientation, comprising:
determining a user confusion index;
causing a projector to emit electromagnetic radiation that is viewed by the user as an augmented reality disorientation graphic in response to the determined user confusion index meeting a predetermined threshold, wherein the electromagnetic radiation is at least partially so that it is reflected by an AR lens and directed toward the user's eyeball through a corrective lens ;
including
the AR lens is coupled to a frame configured to be worn on the user's head;
Method.
カメラを介して、前記ユーザの視野に概ね対応する1枚以上の画像として再現可能な画像データを生成することと、
前記生成された画像データに少なくとも部分的に基づいて、前記ユーザの前記頭部の移動成分を推定することと、
をさらに含む、請求項1に記載の方法。
generating image data, via a camera, reproducible as one or more images generally corresponding to the user's field of view ;
estimating a motion component of the head of the user based at least in part on the generated image data;
2. The method of claim 1 , further comprising:
前記カメラの視野が前記補正レンズの光軸と略整合する、請求項2に記載の方法。 3. The method of claim 2 , wherein the field of view of the camera is substantially aligned with the optical axis of the correction lens. 前記ユーザの前記頭部の前記移動成分を前記推定することが、前記1枚以上の画像のうち2枚の画像に含まれる物体を特定することと、予め定めた時間間隔で生成された前記2枚の画像の間の前記物体の移動量を計算することと、を含む、請求項2または請求項3に記載の方法。 The estimating of the movement component of the head of the user includes identifying an object included in two of the one or more images, and the two images generated at predetermined time intervals. 4. The method of claim 2 or claim 3 , comprising calculating the amount of movement of the object between images. 見当識回復音声メッセージとして前記ユーザに聞こえる音を、前記フレームに連結されたスピーカを介して発することをさらに含む、請求項1~4のいずれか一項に記載の方法。 A method according to any one of claims 1 to 4 , further comprising emitting a sound audible to said user as a disorientation voice message via a speaker coupled to said frame. システムであって、
1つ以上のプロセッサを含む制御システムと、
機械可読命令が記憶されたメモリと、を含み、
前記制御システムは、前記メモリへ連結され、請求項1~5のいずれか一項に記載の方法は、前記メモリ中の機械により実行可能な命令が前記制御システムの前記1つ以上のプロセッサのうち少なくとも1つによって実行されたときに実行される、
システム。
a system,
a control system including one or more processors;
a memory in which machine-readable instructions are stored;
The control system is coupled to the memory, and the method of any one of claims 1 to 5 , wherein machine-executable instructions in the memory are executed by one of the one or more processors of the control system. executed when executed by at least one
system.
ユーザが失見当識を克服するのを支援するシステムであって、
ユーザの頭部に装着されるように構成されたフレームに連結されるように構成されたハウジングと、
前記ハウジングに取り付けられたARレンズと、
前記ハウジングに連結され、拡張現実の見当識回復グラフィックとして前記ユーザに視認される電磁放射が前記ARレンズに少なくとも部分的に反射して前記ユーザの眼球に向けられるように前記電磁放射を発出するように構成されたプロジェクタと、
機械可読命令を記憶するメモリと、
前記機械可読命令を実行するように構成された1つ以上のプロセッサを含む制御システムと、を備え、
前記機械可読命令は、
ユーザ混乱指数を決定し、
前記決定されたユーザ混乱指数が予め定めた閾値を満たすと、前記拡張現実の見当識回復グラフィックが前記ユーザに視認されるように前記プロジェクタに前記電磁放射を発出させる、
システム。
A system for assisting a user to overcome disorientation, comprising:
a housing configured to be coupled to a frame configured to be worn on a user's head;
an AR lens attached to the housing;
coupled to the housing to emit the electromagnetic radiation such that the electromagnetic radiation viewed by the user as an augmented reality disorientation graphic is at least partially reflected off the AR lens and directed toward the user's eyeballs; a projector configured to
a memory that stores machine-readable instructions;
a control system comprising one or more processors configured to execute the machine-readable instructions;
The machine-readable instructions are:
determine a user confusion index;
causing the projector to emit the electromagnetic radiation such that the augmented reality disorientation graphic is visible to the user when the determined user confusion index meets a predetermined threshold;
system.
前記ハウジングに連結され、画像データを生成するように構成されているカメラをさらに備える、請求項7に記載のシステム。 8. The system of Claim 7 , further comprising a camera coupled to the housing and configured to generate image data. 前記制御システムが、前記生成された画像データに少なくとも部分的に基づいて、前記ユーザの前記頭部の移動成分を推定するようにさらに構成され、前記ユーザ混乱指数の前記決定が、前記推定された移動成分に少なくとも部分的に基づく、請求項8に記載のシステム。 The control system is further configured to estimate a motion component of the head of the user based, at least in part, on the generated image data, and the determination of the user confusion index is based on the estimated 9. The system of claim 8 , based at least in part on a moving component. 前記ハウジングに連結され、前記ユーザの前記頭部の動きを示すモーションデータを生成するように構成されているモーションセンサをさらに備える、請求項7~9のいずれか一項に記載のシステム。 The system of any one of claims 7-9 , further comprising a motion sensor coupled to the housing and configured to generate motion data indicative of movement of the head of the user. 前記ユーザ混乱指数の決定が、前記生成されたモーションデータに少なくとも部分的に基づく、請求項10に記載のシステム。 11. The system of claim 10 , wherein determining the user confusion index is based at least in part on the generated motion data. 前記ユーザ混乱指数を前記決定することが、前記生成されたモーションデータに少なくとも部分的に基づいて前記ユーザの前記頭部の移動成分を推定することを含む、請求項10に記載のシステム。 11. The system of claim 10 , wherein the determining the user confusion index comprises estimating a motion component of the head of the user based at least in part on the generated motion data. 前記ユーザの前記頭部の前記移動成分を前記推定することが、前記頭部の角速度、前記頭部の移動頻度、前記頭部の角加速度、またはそれらの任意の組み合わせを推定することを含む、請求項12に記載のシステム。 estimating the movement component of the head of the user comprises estimating angular velocity of the head, frequency of movement of the head, angular acceleration of the head, or any combination thereof; 13. The system of claim 12 . 前記ユーザの前記頭部の前記移動成分が、前記ユーザが頭を振っていること、周りを見回していること、前後を見ていること、またはそれらの任意の組み合わせを示す、請求項12に記載のシステム。 13. The motion component of claim 12, wherein the movement component of the head of the user indicates that the user is shaking his head, looking around, looking forward or backward, or any combination thereof. system. 前記ユーザ混乱指数を前記決定することが、前記生成されたモーションデータに少なくとも部分的に基づいて前記ユーザの歩行移動を推定することを含む、請求項10~14のいずれか一項に記載のシステム。 The system of any one of claims 10 to 14 , wherein said determining said user confusion index comprises estimating locomotion of said user based at least in part on said generated motion data. . 前記モーションセンサが、ジャイロスコープまたは加速度計である、請求項10~15のいずれか一項に記載のシステム。 The system of any one of claims 10-15 , wherein the motion sensor is a gyroscope or an accelerometer. 前記ハウジングが、工具を使用することなく前記フレームから取り外し可能である、請求項7~16のいずれか一項に記載のシステム。 The system of any one of claims 7-16 , wherein the housing is removable from the frame without the use of tools. 前記ハウジングが前記フレームに恒久的に連結されている、請求項7~16のいずれか一項に記載のシステム。 A system according to any one of claims 7 to 16 , wherein the housing is permanently connected to the frame. 前記制御システムが、前記フレームに沿った前記ハウジングの位置に基づいて前記プロジェクタを較正するようにさらに構成されている、請求項7~18のいずれか一項に記載のシステム。 The system of any one of claims 7-18 , wherein the control system is further configured to calibrate the projector based on the position of the housing along the frame. 前記拡張現実の見当識回復グラフィックが、(i)前記ユーザの現在の任務を示すテキストベースの情報、(ii)前記ユーザが特定の時刻に特定の薬を服用するためのリマインダを示すテキストベースの情報、(iii)拡張現実方向、(iv)現在の曜日、現在の年、現在の時刻、現在の季節、またはそれらの任意の組み合わせ、(v)現在のイベント情報、(vi)前記ユーザが以前に閲覧した新聞の一部分の描画、(vii)前記ユーザが以前に閲覧したソーシャルメディアのニュースフィード情報、(viii)前記ユーザが以前に閲覧したウェブサイトの一部分の描画、(ix)前記ユーザの視野内にいる人物の名前を特定する情報、(x)前記ユーザの名前、前記ユーザの自宅住所、ユーザの配偶者の名前、またはそれらの任意の組み合わせを含む、前記ユーザと関連付けられた識別情報、(xi)または(i)~(x)の任意の組み合わせ、を含む、請求項7~19のいずれか一項に記載のシステム。 The augmented reality disorientation graphic includes (i) text-based information indicating the user's current duties, (ii) reminders for the user to take certain medications at certain times. (iii) augmented reality directions; (iv) current day of the week, current year, current time, current season, or any combination thereof; (v) current event information; (vii) social media news feed information previously viewed by said user; (viii) rendering of a portion of websites previously viewed by said user; (ix) field of view of said user. (x) identifying information associated with said user, including information identifying the name of the person within, (x) said user's name, said user's home address, the user's spouse's name, or any combination thereof; (xi) or any combination of (i)-( x ). 前記ハウジングに連結され、画像データを生成するように構成されたカメラと、
前記ハウジングに接続され、モーションデータを生成するように構成されたモーションセンサと、
をさらに備え、
前記制御システムが、前記生成された画像データに少なくとも部分的に基づいて、かつ前記生成されたモーションデータに少なくとも部分的に基づいて、前記ユーザの前記頭部の移動成分を推定するようにさらに構成されている、請求項7に記載のシステム。
a camera coupled to the housing and configured to generate image data;
a motion sensor connected to the housing and configured to generate motion data;
further comprising
The control system is further configured to estimate a motion component of the head of the user based at least in part on the generated image data and at least in part on the generated motion data. 8. The system of claim 7 , wherein:
前記ユーザ混乱指数の決定が、前記推定された移動成分に少なくとも部分的に基づく、請求項21に記載のシステム。 22. The system of claim 21 , wherein determining the user confusion index is based at least in part on the estimated motion component. 前記ハウジングに連結され、心拍データを生成するように構成されている心拍センサをさらに備える、請求項7~22のいずれか一項に記載のシステム。 The system of any one of claims 7-22 , further comprising a heartbeat sensor coupled to the housing and configured to generate heartbeat data. 前記ユーザ混乱指数の前記決定が、前記生成された心拍データに少なくとも部分的に基づく、請求項23に記載のシステム。 24. The system of claim 23 , wherein said determination of said user confusion index is based at least in part on said generated heart rate data. 前記心拍データが、前記ユーザの心拍数、吸気と排気との間での前記ユーザの心拍数の変動、またはその両方を示す、請求項23または請求項24に記載のシステム。 25. The system of claim 23 or claim 24, wherein the heart rate data is indicative of the user's heart rate, the user's heart rate variability between inspiration and expiration, or both. 前記ハウジングに連結され、皮膚伝導度データを生成するように構成された皮膚伝導度センサをさらに備え、
前記ユーザ混乱指数の前記決定が、生成された皮膚伝導度データに少なくとも部分的に基づく、
請求項7~25のいずれか一項に記載のシステム。
further comprising a skin conductivity sensor coupled to the housing and configured to generate skin conductivity data;
wherein said determination of said user confusion index is based at least in part on generated skin conductivity data;
A system according to any one of claims 7-25 .
前記ハウジングに接続され、画像データを生成するように構成されたカメラと、
前記ハウジングに接続され、モーションデータを生成するように構成されたモーションセンサと、
前記ハウジングに連結され、心拍データを生成するように構成された心拍センサと、
前記ハウジングに接続され、皮膚伝導度データを生成するように構成された皮膚伝導度センサと、
をさらに備え、
前記ユーザ混乱指数の前記決定が、(i)前記生成された画像データ、(ii)前記生成されたモーションデータ、(iii)前記生成された心拍データ、(iv)前記生成された皮膚伝導度データ、または(v)(i)~(iv)の任意の組み合わせに少なくとも部分的に基づく、請求項7に記載のシステム。
a camera connected to the housing and configured to generate image data;
a motion sensor connected to the housing and configured to generate motion data;
a heart rate sensor coupled to the housing and configured to generate heart rate data;
a skin conductivity sensor connected to the housing and configured to generate skin conductivity data;
further comprising
(ii) the generated motion data; (iii) the generated heart rate data; (iv) the generated skin conductivity data. , or (v) based at least in part on any combination of (i ) -(iv).
JP2021571484A 2019-05-31 2020-05-28 Systems and methods for minimizing cognitive decline using augmented reality Pending JP2022535032A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962855457P 2019-05-31 2019-05-31
US62/855,457 2019-05-31
PCT/IB2020/055081 WO2020240470A1 (en) 2019-05-31 2020-05-28 Systems and methods for minimizing cognitive decline using augmented reality

Publications (2)

Publication Number Publication Date
JP2022535032A JP2022535032A (en) 2022-08-04
JPWO2020240470A5 true JPWO2020240470A5 (en) 2023-05-24

Family

ID=73553609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021571484A Pending JP2022535032A (en) 2019-05-31 2020-05-28 Systems and methods for minimizing cognitive decline using augmented reality

Country Status (7)

Country Link
US (1) US20220226600A1 (en)
EP (1) EP3975845A4 (en)
JP (1) JP2022535032A (en)
KR (1) KR20220068198A (en)
CN (1) CN114173657A (en)
SG (1) SG11202113275SA (en)
WO (1) WO2020240470A1 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US8831278B2 (en) * 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
US9256711B2 (en) * 2011-07-05 2016-02-09 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display
US9030495B2 (en) * 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
WO2017004695A1 (en) * 2015-07-06 2017-01-12 Frank Jones Methods and devices for demountable head mounted displays
CA3020390A1 (en) * 2016-04-08 2017-10-12 Vizzario, Inc. Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance
US10191541B2 (en) * 2016-06-30 2019-01-29 Sony Interactive Entertainment Inc. Augmenting virtual reality content with real world content
CN108592937A (en) * 2018-05-09 2018-09-28 何辉 A kind of night flight or navigation road conditions for field exploration identify system

Similar Documents

Publication Publication Date Title
JP6657289B2 (en) Systems and methods for augmented and virtual reality
US20240004458A1 (en) Massive simultaneous remote digital presence world
US10311640B2 (en) Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method
CN104866105B (en) The eye of aobvious equipment is dynamic and head moves exchange method
WO2017047178A1 (en) Information processing device, information processing method, and program
JP4083684B2 (en) Image processing system and image processing apparatus
WO2020031767A1 (en) Information processing device, information processing method, and program
US11380072B2 (en) Neutral avatars
JPWO2020090477A5 (en)
WO2020050186A1 (en) Information processing apparatus, information processing method, and recording medium
JPWO2020240470A5 (en)
TW200940116A (en) A motion sickness prevention device
KR20210137831A (en) Electronic apparatus and operaintg method thereof
JP2005279895A (en) Robot
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
TWI674518B (en) Calibration method of eye-tracking and device thereof
JP6874207B2 (en) Estimator, estimation method and program
JP2022535032A (en) Systems and methods for minimizing cognitive decline using augmented reality
JP2022175890A (en) Advice presentation system, information terminal, instrument terminal, program and advice presentation method
WO2023078677A1 (en) Assisting a person to perform a personal care activity
TWM555004U (en) Visual displaying device