JP2023520448A - ガイダンスを提供するためのシステム - Google Patents
ガイダンスを提供するためのシステム Download PDFInfo
- Publication number
- JP2023520448A JP2023520448A JP2022559882A JP2022559882A JP2023520448A JP 2023520448 A JP2023520448 A JP 2023520448A JP 2022559882 A JP2022559882 A JP 2022559882A JP 2022559882 A JP2022559882 A JP 2022559882A JP 2023520448 A JP2023520448 A JP 2023520448A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- body part
- biological parameter
- determining
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims description 102
- 238000004458 analytical method Methods 0.000 claims description 37
- 230000000694 effects Effects 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 10
- 230000035790 physiological processes and functions Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 3
- 230000001939 inductive effect Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 14
- 230000015654 memory Effects 0.000 description 11
- 230000036541 health Effects 0.000 description 9
- 201000004624 Dermatitis Diseases 0.000 description 7
- 208000010668 atopic eczema Diseases 0.000 description 7
- 238000013480 data collection Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 238000011282 treatment Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000003862 health status Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006748 scratching Methods 0.000 description 3
- 230000002393 scratching effect Effects 0.000 description 3
- 206010048232 Yawning Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007794 irritation Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 208000002874 Acne Vulgaris Diseases 0.000 description 1
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 206010027951 Mood swings Diseases 0.000 description 1
- 208000018737 Parkinson disease Diseases 0.000 description 1
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 208000010340 Sleep Deprivation Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000003935 attention Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000036407 pain Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000004461 rapid eye movement Effects 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000036559 skin health Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
- A61B5/0079—Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7405—Details of notification to user or communication with user or patient ; user input means using sound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dermatology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Epidemiology (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
システムを制御するためのコンピュータ実装方法が提供され、方法は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる条件を獲得するステップと、条件に基づいて、身体の部位の向き、身体の部位の位置、身体の部位の動き、及び/又は第2の生物学的パラメータのレベルに関連付けられた要件を決定するステップと、要件に基づいて、身体の部位の現在の向き、身体の部位の現在の位置、対象者の身体部位の現在の動き、及び/又は第2の生物学的パラメータの現在のレベルを獲得するステップと、それぞれの要件及びそれぞれの要件に関連付けられた情報に基づいて、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータの必要な調節を決定するステップと、決定された必要な調節に基づいて対象者のためのガイダンスを生成するステップとを有する。
Description
本開示は、ガイダンスを対象者に提供するように構成されたシステム、及び、システムを制御するための方法に関する。本開示は、また、ガイダンスを対象者に提供するように構成された反射構成要素及びシステムを備えるデバイスに関する。
皮膚状態の画像ベース分析及びモニタリングは典型的に、大量の画像データ、好ましくは、毎日(又はさらにいっそう頻繁に)収集される画像データを必要とする。現在利用可能な技法のうちのいくつかは、例えば、データが有用であるかどうかについて何らかの事前の決定を行うことなく、センサがユーザの存在を検出したとき、可能であればいつでも大量の画像データ収集することによってこれを実現する。このアプローチは、通常、意図した分析に必要でないデータを収集することになるので、ユーザのプライバシに過度に介入するものとみなされる。
代替の現在利用可能なアプローチは、例えば、画像キャプチャのために特定の位置若しくは向きをとることをユーザに求めること、又は、画像をキャプチャするために照明状態を変えることをユーザに求めることによって、ユーザを直接参加させること、及び、データ収集にユーザの協力を要請することである。このような直接のアプローチを使用するデバイスの例は、WO2011/054158A1において見つけることができる。この特許出願は、正確な測定のためのデバイスの正しい位置付けを実現するためにユーザにメッセージを出力するためのディスプレイを有する電子脈圧形を開示している。これらのメッセージは、上方向を示すパターン、下方向を示すパターン、及び「OK」を有する指示情報、又は「UP」、「DOWN」、及び「OK」というテキスト・メッセージであると開示されている。
この直接のアプローチを用いると、データ収集はユーザとの直接の関与に依存するので、ユーザは頻繁に邪魔をされ、これは、ユーザを不快にし、いらだたせる。さらに、これは、関連システム又はアプリケーションの継続的又は長期間使用をユーザに思いとどまらせる。
(例えば対象者の顔の)画像分析による皮膚状態及び皮膚治療の数量化及び追跡は、同様の角度、位置、及び照明状態で獲得された大量の画像、並びに、異なる角度、位置、及び照明状態で獲得された大量の画像を収めるデータベースを必要とする。
上述のように、皮膚状態又は他の健康の状態のモニタリングの画像ベース分析のためのデータ収集のための現在利用可能な解決策に関連付けられたいくつかの短所があり、例えば、いくつかのシステムは、画像が獲得される前に特定の位置及び向きをとることをユーザに求めること、常に画像を獲得すること、又はプリセットされた間隔で画像を獲得することを伴う。これらのアプローチの限界は、非常に目立ちすぎること、プライバシに敏感でないこと、又は重要なデータを見落とす可能性があることである。個人用ケア・デバイス及びアプリケーションのために、偏在的であるように、すなわち対象者によって実行されている主な活動にはっきりと邪魔をしないように、代表的なデータを収集することが望まれる。
したがって、情報がキャプチャされる前に、(例えば、対象者の身体、頭、胴などで)要求された位置若しくは向きをとること、又は、対象者の身体の部位で特定の動きを実施することを行うように対象者を自然に誘導することによって、プライバシにも敏感であると同時に、目立ちすぎないようにデータ(例えば画像データ)を収集することを可能にすることができる、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法を提供することが有利である。本開示の一部は、皮膚状態又は他の健康の状態のモニタリングに関する情報を収集するためのミラーを収集するためのスマート・ミラーの使用に関する。スマート・ミラー、又は他のタイプのスマートな接続されたデバイスは、個人のスタイル及び外見、並びに老化の過程に関して、ユーザの変化するニーズ及び状況に適合させることができる。個人的ケアのニーズを満たすことに加えて、本開示の実施形態によるシステム及び方法は、また、皮膚の健康状態、髪及び歯の状態、睡眠不足の影響、並びに妊娠の進行、対象者の動き(例えば皮膚の引っ掻き)、感情及び気分の変動、疲労、虚弱さ(特に、年配の対象者にとってのもの)、疾患(例えばパーキンソン病)、注意力及び反応性、用心深度などの態様を、慎重に測定及びモニタすることができる。
初めに言及した懸念のうちの1つ又は複数により良く対処するために、第1の態様では、ガイダンスを対象者に提供するように構成されたシステムを制御するためのコンピュータ実施方法が提供される。方法は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することと、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定することと、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することと、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定することと、対象者のためのガイダンスを生成することであって、システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することとを有する。
システムのユーザ・インターフェースによって出力されることになる視覚要素の属性は、視覚要素の視野角、視覚要素の視深度、視覚要素の視距離、及び視覚要素のサイズのうちの少なくとも1つである。
いくつかの実施形態では、視覚要素の相対位置は、座標によって表され、システムの1つ又は複数の検知ユニットに対する視覚要素の位置を示す。これらの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の少なくとも相対位置を決定することは、視覚要素の座標を決定することを有する。
いくつかの実施形態では、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することは、第1の生物学的パラメータにさらに基づく。
決定された必要な調節に基づいて対象者のためのガイダンスを生成することが、指向性音響効果を生成することを有するいくつかの実施形態では、方法は、指向性音響効果の属性を決定することをさらに有する。
いくつかの実施形態では、方法は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うステップをさらに有する。これらの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される。
いくつかの実施形態では、獲得された初期データは、対象者の好みに関連付けられたデータ、対象者の環境に関連付けられたデータ、対象者によって使用されるデバイスの使用データ、対象者によって使用されるアプリケーション・プログラムの使用データ、第2の生物学的パラメータの値、第1の生物学的パラメータに関連付けられた対象者の身体部位の画像データ、及び対象者、対象者の環境、対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データのうちの少なくとも1つを有する。
いくつかの実施形態では、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することは、対象者の身体部位の画像及び対象者の環境の音のうちの少なくとも1つを獲得することと、対象者の獲得された画像及び環境の音のうちの少なくとも1つの分析を実施することによって、対象者の身体部位の1つ又は複数の物理的特徴を検出することと、検出された1つ又は複数の物理的特徴に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを決定することとを有する。
いくつかの実施形態では、方法は、生成されたガイダンスに応じて対象者からのフィードバックを獲得することであって、フィードバックが、対象者の身体部位の動き及び対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得することと、獲得されたフィードバックに基づいてガイダンスの更新が必要であるかどうかを決定することと、ガイダンスの更新が必要であると決定されたとき、対象者のための新しいガイダンスを生成することとをさらに有する。
いくつかの実施形態では、生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。
いくつかの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータは、対象者の身体部位の1つ又は複数の画像を有し、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件のそれぞれは、1つ又は複数の画像の鮮明さ、対象者の身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に1つ又は複数の画像がキャプチャされるユーザによって実施される活動のうちの少なくとも1つに関連付けられる。
第2の態様では、コンピュータ可読媒体を備えるコンピュータ・プログラム製品が提供され、コンピュータ可読媒体は、コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、コンピュータ可読コードは、適切なコンピュータ又はプロセッサによる実行時、本明細書で説明されるような方法を実施することをコンピュータ又はプロセッサに行わせるように構成される。
第3の態様では、ガイダンスを対象者に提供するように構成されたシステムが提供され、システムは、1つ又は複数の視覚又は聴覚要素を出力するように構成されたユーザ・インターフェースと、対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャするように構成された検知ユニットと、制御ユニットであって、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得すること、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定すること、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得すること、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定すること、対象者のためのガイダンスを生成することであって、ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び必要な調節を実現するように対象者を誘発するように、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することを行うように構成された、制御ユニットとを備える。
いくつかの実施形態では、制御ユニットは、必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うようにさらに構成される。さらに、制御ユニットは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するようにさらに構成される。
第4の態様では、入射光を反射するように構成された反射構成要素、及び本明細書で説明されるようなシステムを備えるデバイスが提供される。
上記で説明された態様及び実施形態によれば、既存の技法の限界が対処される。特に、上述の態様及び実施形態は、データ収集のための所望の状態を実現できるようなやり方で動く又はふるまうように対象者を誘発するために、ガイダンスを対象者に提供することを可能にする。上記で説明された実施形態は、対象者を「説得する」ために、このようなガイダンスが生成及び提供されることが可能な、いくつかの異なるやり方を提供する。このようにして、偏在的であるように及び目立ちすぎないように、所望のデータが収集されることが可能である。
したがって、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法が提供される。本開示のこれら及び他の態様は、以下で説明される実施形態から明らかになり、この実施形態を参照すると明瞭になるであろう。
実施形態をより良く理解するため、及び実施形態をどのように実行に移すかをより明確に示すために、ほんの一例として、添付の図面への参照がこれから行われる。
上述のように、既存の問題に対処する改善されたシステム、及び改善されたシステムを制御するため方法が提供される。
図1は、実施形態によるシステム100のブロック図を示し、システム100は、ガイダンスを対象者に提供するように構成されることが可能である。ガイダンスは、暗黙的又は明示的なものであることが可能であり、対象者は、対象者の身体又は身体の部位の姿勢及び/又は位置付けに関して、意識的な又は無意識の変化又は適合を行う。システムは、以下でより詳細に説明されるような、対象者との一方向の対話及び双方向の対話を誘発することができる。
システム100の動作は下記で、単一の対象者のコンテキストで説明されるが、システム100は、ガイダンスを複数の対象者に提供できることが理解されよう。また、本明細書で説明される実施形態は、画像データの収集に関連して説明されるが、本実施形態は、例えば対象者の発言及び他の音など、他のタイプのデータに対して適用可能であることが理解されよう。さらに、システム100の動作は、特に皮膚ケア及び歯のケアといった個人の健康ドメインのコンテキストで、下記で説明されるが、システム100は、画像データ又は他のタイプのデータの獲得を必要とする用途で使用されることが理解されよう。
図1に示されているように、システム100は、ユーザ・インターフェース110、検知ユニット120、及び制御ユニット130を備える。
ユーザ・インターフェース110は、1つ又は複数の視覚又は聴覚要素を出力するように構成される。いくつかの実施形態では、ユーザ・インターフェース110は、1つ又は複数の視覚要素及び1つ又は複数の聴覚要素のうちの少なくとも1つを出力するように構成された装着可能ユニットを備える。装着可能ユニットは、3Dフォーマット、ホログラフィ・フォーマット、仮想現実(VR)フォーマット、及び拡張現実(AR)フォーマットのうちの少なくとも1つで、1つ又は複数の視覚要素を出力するように構成される。いくつかの実施形態では、ユーザ・インターフェース110は、1つ又は複数の視覚要素を出力するための液体レンズ技術を採用する。
その上、ユーザ・インターフェース110は、聴覚又は視覚フォーマットでシステム100のユーザへの情報のレンダリング(又は出力若しくは表示)を可能にする任意のユーザ・インターフェースである。さらに、ユーザ・インターフェース110は、システム100のユーザ(例えば対象者)がユーザ入力を行うこと、システム100と対話すること、及び/又はシステム100を制御することを可能にするユーザ・インターフェースである。例えば、ユーザ・インターフェース110は、1つ若しくは複数のスイッチ、1つ若しくは複数のボタン、キーパッド、キーボード、(例えば、タブレット若しくはスマートフォン上の)タッチ・スクリーン若しくはアプリケーション、ディスプレイ画面、グラフィカル・ユーザ・インターフェース(GUI)若しくは他の視覚レンダリング構成要素、1つ若しくは複数のスピーカ、1つ若しくは複数のマイクロフォン若しくは任意の他の聴覚構成要素、1つ若しくは複数のライト、触覚フィードバック(例えば振動機能)を提供するための構成要素、又は任意の他のユーザ・インターフェース、或いはユーザ・インターフェースの組合せを備える。
検知ユニット120は、対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャするように構成される。検知ユニット120は、いくつかの実施形態では、(例えば皮膚コンダクタンス、心拍数、温度、音、動きなどのための)カメラ及び装着可能センサのうちの少なくとも1つを備える。生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。
制御ユニット130は、システム100の動作を制御し、本明細書で説明される方法を実施することができる。制御ユニット130は、1つ若しくは複数のプロセッサ、処理ユニット、マルチコア・プロセッサ、又は、本明細書で説明されるようにシステム100を制御するように構成又はプログラムされたモジュールを備えることができる。特定の実装形態では、制御ユニット130は、本明細書で説明される方法の個々の又は複数のステップを実施するようにそれぞれ構成された又は実施するための、複数のソフトウェア及び/又はハードウェア・モジュールを備えることができる。
手短に言えば、制御ユニット130は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することと、1つ又は複数の条件に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定することとを行うように構成される。制御ユニット130は、また、1つ又は複数の要件に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するように構成される。制御ユニット130は、次に、それぞれの要件及びそれぞれの要件に関連付けられた獲得された情報に基づいて、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定するように構成される。
制御ユニット130は、ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成することと、必要な調節を実現するように対象者を誘発するように、ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することとのうちの少なくとも1つを実施することによって、決定された必要な調節に基づいて対象者のためのガイダンスを生成することを行うようにさらに構成される。いくつかの実施形態では、視覚要素は、ユーザ・インターフェース110を介して表示されたアクティブ・ウィンドウの形で提供される。
いくつかの実施形態では、制御ユニット130は、必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うようにさらに構成される。関連する所定の閾値は、静的な閾値又は動的な閾値である。これらの実施形態では、制御ユニット130は、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するように構成される。
いくつかの実施形態では、制御ユニット130は、獲得された1つ又は複数の条件(初期データの有無に関わらず)でキャプチャされたデータに基づいて、第1の生物学的パラメータの分析を実施するように構成される。
その上、制御ユニット130は、検知ユニット120によってキャプチャされたデータの(例えば発言又は画像からの)ジェスチャ認識、表情認識、言語認識、感情認識のうちの少なくとも1つを実施することによって、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するように構成される。
いくつかの実施形態では、ユーザ・インターフェース110は、検知ユニット120及び制御ユニット130とは別個の別のデバイスの一部である。ユーザ・インターフェース110は、本明細書で説明される方法から生じた情報を装置100のユーザに提供する際に使用するためのものである。さらに、ユーザ・インターフェース110は、ユーザ入力を受け取るように構成される。例えば、ユーザ・インターフェース110は、システム100のユーザが、指示、データ、又は情報を手動でエンターすることを可能にする。これらの実施形態では、制御ユニット130は、ユーザ・インターフェース110からユーザ入力を獲得するように構成される。
図面に示されていないが、システム100は、メモリを備える。代替として又はさらに、1つ又は複数のメモリは、システム100の外部にある(すなわち、システム100とは別個、又はシステム100から離れている)。例えば、1つ又は複数のメモリは、別のデバイスの一部である。メモリは、本明細書で説明される方法を実施するための、制御ユニット130によって実行可能なプログラム・コードを格納するように構成されることが可能である。メモリは、システム100の制御ユニット130によって獲得された又は作られた情報、データ、信号、及び測定値を格納するために使用されることが可能である。例えば、メモリは、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる獲得された1つ又は複数の条件を(例えば、ローカル・ファイルに)格納するために使用される。制御ユニット130は、第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる獲得された1つ又は複数の条件を格納するようにメモリを制御するように構成される。
図面に示されていないが、システム100は、システム100が、システム100の内部又は外部にある任意のインターフェース、メモリ、及び/又はデバイスと通信することを可能にするための、通信インターフェース(又は回路機器)を備える。通信インターフェースは、ワイヤレスで又は有線接続を介して、任意のインターフェース、メモリ、及び/又はデバイスと通信する。例えば、通信インターフェースは、ワイヤレスで又は有線接続を介して、ユーザ・インターフェース110と通信する。同様に、通信インターフェースは、ワイヤレスで又は有線接続を介して、1つ又は複数のメモリと通信する。
図1は、システム100の態様を示すのに必要な構成要素だけを示しているが、実際的な実装形態では、システム100は、示されたものに対する代替又は追加の構成要素を備えることが理解されよう。
その上、いくつかの実施形態では、入射光を反射するように構成された反射構成要素を備えるデバイス、及び本明細書で説明されるようなシステム100が提供される。例えば、デバイスは、スマート・ミラーである。この例では、ユーザ・インターフェース110は、反射(ミラー)構成要素に組み込まれたタッチ・スクリーンであり、センサ・ユニット120は、スマート・ミラーの反射構成要素に組み込まれたカメラを備える。デバイスは、健康診断、並びに、個人用ケア製品の改善された主要な性能、スタイリングのアドバイス、及び他の個人の健康又はグルーミング関連サービスに関して、デバイス及びシステム100を補完することができる追加の構成要素を備える(例えば、対象者のバスルームに実施された)ネットワークの一部である。さらに、いくつかの実施形態では、本明細書で説明されるようなシステム100を備える個人用ケア・デバイス又は個人用健康デバイスが提供される。
図2は、実施形態による、ガイダンスを対象者に提供するように構成されたシステムを制御するためのコンピュータ実施方法を示す。図示の方法は、一般に、システム100の制御ユニット130によって、又はその制御下で、実施されることが可能である。図示の方法は、図1のシステム100及びその構成要素を参照しながら、下記で説明されることになる。
図2を参照すると、ブロック202において、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件が獲得される。上記で図1を参照しながら説明されたように、生物学的パラメータは、対象者の生理学的状態及び対象者の心理的状態のうちの1つに関連付けられる。第1の生物学的パラメータは、例えば皮膚分析のコンテキストでは、対象者の皮膚の油性のレベル、対象者の皮膚の伸縮性のレベル、又は湿疹領域の発赤のレベルなどの対象者の顔の状態(例えばざ瘡、湿疹)に関するパラメータである。別の例として、第1の生物学的パラメータは、歯の分析のコンテキストでは、対象者の歯のプラークの程度である。分析に必要なデータは、例えば、対象者の現在の血糖レベル、1つ又は複数の画像、1つ又は複数のビデオなど、他の生物学的パラメータの測定された値を有する。
いくつかの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータは、対象者の身体部位(例えば、顔、手、又は歯)の1つ又は複数の画像を有する。これらの実施形態では、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件のそれぞれは、1つ又は複数の画像の鮮明さ、対象者の身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に1つ又は複数の画像がキャプチャされるユーザによって実施される活動のうちの少なくとも1つに関連付けられる。これは、典型的には、大量の時間的に分散した高品質の代表的な画像が、関連した生物学的パラメータの分析に必要であるからであり、品質は、鮮明さ、コンテンツ、色などに加えて、関連した分析についての代表性を示すものである。例えば、湿疹箇所の領域境界を識別できるように、対象者の左頬の湿疹箇所を分析するために、対象者の左頬の高品質画像が必要である。さらに、場合によっては、発赤のレベル及び/又は湿疹領域の荒れのレベルを数量化できるように、同様の照明状態及び/又は角度での過去の画像が必要である。さらに、例えば、(なんらかの引っかき傷が作られたかどうかなど)引っ掻き又は接触、及び引っ掻き又は接触の程度又は強度など、湿疹領域と相互作用する対象者の画像及び/又はビデオが、湿疹状態によって引き起こされるいらだち、痛み、又は苦痛のレベルを分析するために獲得される。
いくつかの実施形態では、ブロック202における、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することの前に、方法は、対象者、対象者によって使用されるデバイス、及び対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとを行うステップを実施することを有する。関連する所定の閾値は、静的又は動的である。
場合によっては、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つでの、第1の生物学的パラメータ(例えば対象者の皮膚の油性のレベル)の分析を実施するのに十分でないと決定される。このような場合、方法は、獲得された累積的な初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分であると決定されるまで、さらなる初期データを獲得することを有する。第1の生物学的パラメータの分析は、即時の(例えば、リアル・タイムの、若しくはリアル・タイムに近い)分析、又は予定される分析である。例えば、対象者は皮膚状態の治療で心配し、治療は数週間続く-この例では、制御ユニット130は、特定のタイプの情報が、将来の予定される分析に必要であると予測する。このようにして、データは、第1の生物学的パラメータの現在の分析のために獲得されるだけでなく、(例えば皮膚状態の治療の進行を追跡するために)実行されることになるスケジュールされる分析のためにも予測的に獲得される。
これらの実施形態では、ブロック202において、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得することは、獲得された初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される。
その上、これらの実施形態では、獲得された初期データは、対象者の好みに関連付けられたデータ、対象者の環境に関連付けられたデータ、対象者によって使用されるデバイスの使用データ、対象者によって使用されるアプリケーション・プログラムの使用データ、第2の生物学的パラメータの値、第1の生物学的パラメータに関連付けられた対象者の身体部位の画像データ、及び対象者、対象者の環境、対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データ(例えば発言)のうちの少なくとも1つを有する。
例えば、対象者の好みに関連付けられたデータは、例えばスマート・ミラーなど、システム100に関連付けられた又はこれを備えるデバイスに関する対象者によって好まれる時間及び/又は日付に関する情報を有する。対象者の好みに関連付けられたデータは、追加又は代替として、例えば、心拍数、対象者が特定の活動中に動くことを好むかどうか、対象者が特定の活動中の聴覚又は視覚刺激を好むかどうか、対象者によって好まれるコンテンツのタイプなど、対象者の生理学的パラメータを有する。対象者の環境に関連付けられたデータは、例えば、ロケーション・データ及び/又はローカルな天候情報を有する。対象者によって使用されるデバイスは、個人用ケア・デバイス(例えば電気歯ブラシ、スキンケア・デバイス、電気フェイスブラシ)、個人用健康デバイス(例えば体重計)、又は、対象者の健康状態の態様に関連付けられたデバイス(例えば、対象者によって消費される食品の栄養情報を提供することができる調理器具)である。対象者によって使用されるアプリケーション・プログラムは、例えば、個人用ケア・デバイス、個人用健康デバイス、又は対象者の健康状態の態様に関連付けられたデバイスに関連付けられたアプリケーション・プログラムである。代替として又はさらに、対象者によって使用されるアプリケーション・プログラムは、対象者の健康状態(例えば口腔の健康状態、睡眠分析)をモニタするためのスマートフォン・アプリケーションである。
初期データを獲得することは、システム100のユーザ・インターフェース110を介した対象者による入力を通じて初期データを受け取ることを有する。いくつかの実施形態では、初期データは、システム100による対象者との対話を介して自動的に学習される。
図2に戻ると、ブロック204において、対象者の身体部位の向き、対象者の身体部位の位置、対象者の身体部位の動き、及び対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件が決定される。この決定は、ブロック202において獲得された1つ又は複数の条件に基づく。いくつかの実施形態では、ブロック204における1つ又は複数の要件の決定は、対象者によって実施されている現在の活動にさらに基づく。
図2に戻ると、ブロック206において、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つが獲得される。この獲得は、ブロック204において決定された1つ又は複数の要件に基づく。
いくつかの実施形態では、ブロック206において、対象者の身体部位の現在の向き、対象者の身体部位の現在の動き、対象者の身体部位の現在の位置、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得することは、対象者の身体部位の画像及び対象者の環境の音のうちの少なくとも1つを獲得することと、獲得された画像及び獲得された音のうちの少なくとも1つの分析を実施することによって、対象者の身体部位の1つ又は複数の物理的特徴を検出することと、検出された1つ又は複数の物理的特徴に基づいて、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを決定することとを有する。
図2に戻ると、ブロック208において、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つの必要な調節が決定される。この決定は、ブロック204において決定されたそれぞれの要件、及びブロック206において獲得されたそれぞれの要件に関連付けられた情報に基づく。
図2に戻ると、ブロック210において、対象者のためのガイダンスが、ブロック208において決定された必要な調節に基づいて生成される。ガイダンスの生成は、
- システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び
- 必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素(例えばアクティブ・ウィンドウ)の相対位置及び属性(例えば視野角、深度など)のうちの少なくとも1つを決定すること
のうちの少なくとも1つを実施することによって実現される。
- システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、指向性音響効果が、必要な調節を実現するように対象者を誘発するように構成される、生成すること、及び
- 必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素(例えばアクティブ・ウィンドウ)の相対位置及び属性(例えば視野角、深度など)のうちの少なくとも1つを決定すること
のうちの少なくとも1つを実施することによって実現される。
例として、対象者のためのガイダンスは、対象者の頭を動かして必要な調節を実現するように対象者を誘発するために、指向性音響効果を生成することによって生成されることが可能である。例えば、指向性音響効果は、ビーム形成を使用して提供されることが可能であり、ビーム形成は、対象者の頭を音の方に向けて対象者の頭の1つの側面の画像キャプチャを可能にするように対象者を誘発することができる。方法が指向性音響効果を生成することを有するいくつかの実施形態では、方法は、指向性音響効果の属性を決定することをさらに有する。音響効果の属性は、ピッチ、音の大きさ、テンポ、及び、沈黙又は休止周期のうちの少なくとも1つに関連付けられる。
例として、対象者のためのガイダンスは、特定の方向を見て、対象者の側面プロフィールの画像キャプチャを可能にするように対象者を誘発するシステムのユーザ・インターフェースによって出力されることになる、例えば小さい赤い点など、視覚要素の相対位置を決定することによって生成されることが可能である。代替として、視覚要素の相対位置は、対象者の手及び腕が、画像キャプチャに適した角度及び適した照明状態の場所にあるように、スワイプ・アクション実施するように対象者を誘発するために決定される。
いくつかの実施形態では、視覚要素の相対位置及び属性のうちの少なくとも1つを決定する際に、分析技法(例えば画像分析技法)が用いられることが可能である。これは、検知ユニットの位置及び向きが固定されているという仮定の下で実施される。対象者のキャプチャされた画像における対象者の身体特徴(例えば、頭、肩、目、鼻、耳など)に対応するピクセルを見つけるために、画像認識が使用されることが可能である。視覚要素の相対位置は、相対位置を表す座標が、身体特徴に対応するピクセルの座標と合致するように、決定されることが可能である。その上、場合によっては、対象者の左耳に対応するピクセルと右耳に対応するピクセルとの間の距離を決定することによって、ユーザ・インターフェース(及び/又は検知ユニット)からの対象者の距離が、ベースラインを設定するために決定される。このようにして、ブロック204において決定された要件のうちの1つ又は複数に従って対象者が位置付けられない場合、視覚要素は、ぼやける(ぼやけ効果は決定された属性である)。
いくつかの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置を決定することは、相対位置の複数の候補のセットからの相対位置のセットを選択することと、選択された候補のセットから相対位置を決定することとを有する。これらの実施形態では、複数の候補のセットのそれぞれが、生物学的パラメータ、健康の状態、及び/又は治療に関連付けられる。例えば、相対位置の候補のセット1は、(生物学的パラメータとしての)皮膚の色の分析に関連付けられ、候補のセット2は、しわの分析、モニタリング、及び治療に関連付けられる。候補のセットは、1つ又は複数の対象者に関連付けられた以前のデータに基づいて、並びに/又は、同様の身体及び頭の寸法を有する対象者の母集団データに基づいて、決定される。
同様に、いくつかの実施形態では、システムのユーザ・インターフェースによって出力されることになる視覚要素の属性を決定することは、属性の複数の候補のセットから属性のセットを選択することと、選択された候補のセットから属性を決定することとを有する。
いくつかの実施形態では、視覚要素に関連付けられたコンテンツは、必要な調節を実施するように対象者を誘導するための非指示的プロンプトを有する。例えば、あくびをしている人々の(視覚要素の少なくとも一部としての)ビデオが、あくびするように対象者を誘発するように示され、これは、対象者の顔の皮膚の伸縮性を評価するのに有用である。同じ原理が、微笑む又は笑うように対象者を誘発するために、笑い(例えば、笑っている人々のビデオ、又は笑っている人々のサウンド・クリップ)に対して適用されることが可能であり、これは、対象者をリラックスさせるのに有用であり、第1の生物学的パラメータの分析のために所望のデータがキャプチャされる。
ブロック210におけるガイダンスの生成が、少なくとも、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することによって実現されるいくつかの実施形態では、視覚要素は、3Dフォーマット、ホログラフィ・フォーマット、仮想現実フォーマット、及び拡張現実フォーマットのうちの少なくとも1つで提供される。特に、視覚要素が3Dフォーマットで提供される実施形態では、視覚要素の属性は、異なる角度から鑑賞するように対象者を動機づけ、したがって、検知ユニットによって異なる角度から対象者の頭の画像をキャプチャできるように決定される。視覚要素がホログラフィ・フォーマットで提供される実施形態では、視覚要素は、対象者の身体の部位で特定の位置及び/若しくは向きをとること、又は、対象者の身体の部位で特定の動きを実施することを行うように対象者を誘発するように、コンテンツが特定の角度からでのみ鑑賞可能であるように提供される。さらに、システム100のユーザ・インターフェース110が装着可能ユニットを備えるいくつかの実施形態では、このような装着可能ユニットを介して出力された視覚要素の相対位置及び属性は、特定の位置及び/若しくは向きをとること、又は身体の部位の特定の動きを実施することを行うように対象者を誘発するように、適宜決定されることが可能である。また、システム100のユーザ・インターフェース110が、その出力において液体レンズ技術を使用するいくつかの実施形態では、液体レンズ・ディスプレイに関する属性は、必要な調節を実現するように対象者を誘発するように決定される。
いくつかの実施形態では、ブロック210におけるガイダンスの生成は、第1の生物学的パラメータにさらに基づく。例えば、第1の生物学的パラメータが、対象者の左頬の皮膚の領域の発赤のレベルである場合、視覚要素の相対位置は、対象者の左頬が検知ユニット(例えばカメラ)の視野内にあるように、対象者の頭を向けるように対象者を誘発するようなやり方で決定される。代替として又はさらに、指向性音響効果は、対象者の頭を向けるように対象者を誘発するように生成される。
さらに、視覚要素の相対位置及び/若しくは属性、又は検知ユニットの設定は、対象者の身体部位の向き、対象者の身体部位の位置、及び対象者の第2の生物学的パラメータのうちの少なくとも1つに対する変化する要件を満たすように周期的に(例えば毎日)調節される。これらの変化する要件は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる変化する条件により変動する。例えば、視覚要素の相対位置は、対象者の顔の画像が、検知ユニットによって異なる角度でキャプチャされるように、対象者の頭を異なる方向に動かすように対象者を誘発するように周期的に調節される。別の例として、視覚要素の視野角は、ユーザ・インターフェース(及びしたがって検知ユニット)に対して特定の角度で、自身を位置付けるように対象者を誘発するように狭められ、並びに/又は、視覚要素の視距離は、ユーザ・インターフェース(及びしたがって検知ユニット)に対して特定の範囲の距離に自身を位置付けるように対象者を誘発するように制限される。視覚要素の相対位置及び/又は属性の調節は、例えば小さい垂直又は水平シフトによって視覚要素の相対位置を変化させるなど、調節が対象者には知覚できないように実施される。視覚要素が3Dフォーマットで提供される場合、視覚要素の3D属性は、深度知覚の変動に関して調節される。
場合によっては、視覚要素の相対位置に関する小さいシフトは、対象者の身体部位の向き、対象者の身体部位の位置、及び/又は対象者の第2の生物学的パラメータに対する決定された必要な調節を実現するように対象者を必ずしも誘発しない。例えば、小さいシフトは、頭を動かさずに、対象者による目の急速な動き又は素早い目の凝視だけを引き起こす。実際には、約20°より大きい凝視の何らかのシフトが、頭の動きに伴う。この理由から、視覚要素の相対位置の調節は、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータに関する必要な調節を実現するように対象者を誘発するのに、大きいシフトが必要になるので、必ずしも巧みな「説得」ではない。代替として、例えば、ユーザ・インターフェース若しくは対象者の環境の物理的な抑制、又は対象者の健康状態に関連した抑制により、或いは対象者の好みにより、視覚要素の相対位置のより大きい調節が可能でない場合、視覚要素の属性は、身体の部位の向き、身体の部位の位置、及び/又は第2の生物学的パラメータに関して必要な調節を実現するように対象者を誘発するように調節される。いくつかの実施形態では、視覚要素の相対位置と視覚要素の1つ又は複数の属性(例えば視野角)両方の調節が可能である。
いくつかの実施形態では、視覚要素の相対位置を決定することは、例えばスマート・タイル又は体重計など、対象者によって使用されるデバイスから獲得された情報に基づく。例えば、出力されることになる視覚要素の相対位置を決定するために、対象者の左右又は前後のバランスに関連付けられたデータが使用される。
ブロック210におけるガイダンスの生成が、少なくとも、必要な調節を実現するように対象者を誘発するように、システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置を決定することによって実現される実施形態では、相対位置は、座標(例えばデカルト平面上の座標)によって表される。その上、相対位置は、システム100の1つ又は複数の検知ユニット120に対する視覚要素の位置を示す。さらに、これらの実施形態では、システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置のうちの少なくとも1つの決定は、視覚要素の座標を決定することを有する。
システム100のユーザ・インターフェース110によって出力されることになる視覚要素の相対位置の決定は、視覚要素の以前の相対位置に基づく。例えば、視覚要素は、ユーザ・インターフェース110を介して出力されたアクティブ・ウィンドウである。この例では、(座標によって提示される)相対位置は、メモリに格納され、同じアクティブ・ウィンドウ又は同様のアクティブ・ウィンドウが出力されることになるとき、後で取り出される。(新しい)アクティブ・ウィンドウの相対位置の決定は、以前の相対位置と同じであるか、さらなる調節を伴う以前の相対位置に基づく。さらなる調節は、それぞれの身体の部位の向き、それぞれの身体の部位の位置、及び第2の生物学的パラメータのレベルに関する変化する要件に基づく。
さらに、ブロック210におけるガイダンスの生成が、少なくとも、システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置のうちの少なくとも1つを決定することによって実現される実施形態では、相対位置を決定することは、対象者に対する視覚要素のデフォルトの相対位置を決定することを有する。デフォルトの相対位置は、座標によって表され、対象者に対する視覚要素のデフォルトの相対位置の決定は、対象者の身体の姿勢、対象者の1つ又は複数の顔の特徴、対象者の身長などの要因に基づく。このような情報は、ブロック206における、対象者の身体部位の現在の向き、対象者の身体部位の現在の動き、対象者の身体部位の現在の位置、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つと一緒に獲得される。このような情報は、対象者に対する視覚要素のデフォルトの相対位置の決定前のいずれかの時点で獲得されることが理解されよう。
ブロック210におけるガイダンスの生成が、少なくとも、必要な調節を実現するように対象者を誘発するように、システムのユーザ・インターフェースによって出力されることになる視覚要素の少なくとも属性を決定することによって実現される実施形態では、属性を決定することは、視覚要素の視野角、視覚要素のサイズ、視覚要素の視深度、及び視覚要素の視距離のうちの少なくとも1つを決定することを有する。
図面に示されていないが、いくつかの実施形態では、方法は、生成されたガイダンスに応じて対象者からのフィードバックを獲得することであって、フィードバックが、対象者の身体部位の動き及び対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得することと、獲得されたフィードバックに基づいてガイダンスの更新が必要であるかどうかを決定することと、ガイダンスの更新が必要であると決定されたとき、対象者のための新しいガイダンスを生成することとを行うステップをさらに有する。フィードバックは、システム100の検知ユニット120によって獲得される。さらに、これらの実施形態では、第3の生物学的パラメータは、対象者の生理学的状態(例えば心拍数)、及び対象者の心理的状態(例えば表情によって示されるような感情)のうちの1つに関連付けられる。対象者の身体部位の動きは、例えば、生成された視覚要素に応じた対象者の頭の動きである。
このようなフィードバックを獲得する目的は、生成されたガイダンスに対する対象者の反応をモニタして、対象者が、生成されたガイダンスによって引き起こされるどのような注意散漫もなく、自分の主な活動を実施できるかどうかを決定することである。
1つの例では、視覚要素(例えばアクティブ・ウィンドウ)の属性(例えば視深度)が決定され、その後、視覚要素の出力で効果が発揮される。この例では、対象者の動きは、例えば、対象者が前後に動いており、このことが、対象者がユーザ・インターフェースから正しい距離を維持すること、及び視覚要素を明確且つはっきりと見ることを妨げるかどうかなど、視覚要素の決定された属性に対する適合に対象者が苦労しているかどうかを検出するためのフィードバックとしてモニタされる。この場合、動くこと及び潜在的に不快な位置をとることを対象者に強いるのではなく、視覚要素の相対位置及び属性の少なくとも1つがさらに調節されることが可能である。より詳細には、ユーザ・インターフェースの近くに移動するように対象者を説得するのではなく、位置が、対象者の頭をわずかに左に、次にその後わずかに右に向けるように対象者を説得するような、視覚要素の新しい相対位置が決定される。このようにして、第1の生物学的パラメータを分析するために、対象者が自分の頭を右に向けたときにキャプチャされた画像と一緒に、対象者が自分の頭を左に向けたときにキャプチャされた画像が使用されることが可能である。これらの画像は、意図する分析の有用性に関して、対象者がユーザ・インターフェースの近くに位置付けられた場合にキャプチャされる画像と同等であるとみなされる。言い換えれば、この例では、第1の生物学的パラメータを分析するために、異なるデータ獲得方法が使用される。2つの獲得方法の間の違いは、後者の方法が、キャプチャされることになるより多くの画像、及びキャプチャされることになる画像のためにより多くの時間を必要とすることである。それでも、後者の方法は、対象者が、視覚要素をより便利に鑑賞すること、及び視覚要素と潜在的に対話することができつつ、より快適であるという長所をもたらす。
別の例では、システム100の検知ユニット120を介して決定されることが可能な、疲労に関するパラメータ(例えば心拍数、呼吸数など)などの、対象者の生理学的状態に関するフィードバックが獲得される。検知ユニット120は、例えば呼吸数を決定するために、対象者の胸郭の動きを追跡することができるカメラを備える。代替として又はさらに、検知ユニット120は、対象者の心拍数を検出することができる装着可能センサを備える。これらの実施形態における方法は、検出された心拍数及び検出された呼吸数のうちの少なくとも1つに基づいて疲労のレベルを決定することと、疲労のレベルに基づいてガイダンスの更新が必要であると決定することとをさらに有する。新しいガイダンスは、視覚要素の相対位置及び属性のうちの少なくとも1つを調節するやり方によって生成される。
さらに別の例では、対象者の心理的状態(例えば感情)に関するフィードバックが獲得される。例えば、フィードバックは、(システム100の検知ユニット120の一部である)カメラを使用した対象者の表情のモニタリング、又は装着可能センサからの信号(例えば皮膚コンダクタンス、心拍変動など)のモニタリングを介して獲得されることが可能である。例えば、対象者の感情の誘意性の値は、表情、及び装着可能センサからの信号のうちの少なくとも1つに基づいて決定され、誘意性の値が所定の閾値を下回ると決定された場合、ガイダンスの更新が必要であると決定される。
図3は、1つの実施形態による、ユーザ・インターフェースによって出力された視覚要素の異なる相対位置を決定する実装形態を示す。本実施形態では、視覚要素は、情報(例えば現在の天候、個人のケア・データ、スキンケア指示など)を対象者に提供するために、スマート・ミラー・デバイスに提供された画面に表示されたアクティブ・ウィンドウであり、画面は、システムのユーザ・インターフェースの一部である。アクティブ・ウィンドウは、数あるデータの中でも、テキスト及び/又はグラフィックス(画像)から成るコンテンツを有する。アクティブ・ウィンドウのコンテンツは、顔(特に目及び鼻)並びに/又は身体(特に肩甲骨)が、画面に表示されたアクティブ・ウィンドウの相対位置に対して特定の位置及び/又は向きにあるときだけ、(最も良く)見ることができる。例えば、アクティブ・ウィンドウは、対象者の目が、画面に表示されたアクティブ・ウィンドウの相対位置と合致したときだけ、アクティブ・ウィンドウに提示された情報を(最も良く)読み取れるようなやり方で表示される。したがって、画面上のアクティブ・ウィンドウの異なる相対位置を調節すること又は変えることによって、対象者は、自分の身体の部位で適切又は理想的な位置及び/又は向きをとることと、データを途切ることなく収集できるように、検知ユニットのおそらく固定された照明状態及び固定された位置に対して動きを実施することとを誘発されることが可能である。
本実施形態におけるアクティブ・ウィンドウによってとられることが可能な異なる相対位置のうちの4つが、図3に示されている。相対位置の説明を容易にするために、画面は、画面の隅に対するアクティブ・ウィンドウの相対位置を明確に示すために、隅に陰影をつけた4つのグリッドによって表されている。いくつかの実施形態では、隅のそれぞれには、例えば、スマート・ミラー・デバイスの前に立っている対象者の画像データをキャプチャするためのカメラなど、検知ユニットが設置される。実際的な実装形態では、グリッドが画面を介して出力されないことが理解されよう。
図3に示されているように、アクティブ・ウィンドウは、最初に、画面の右上隅の近くに位置付けられたデフォルトの相対位置(「位置0」)をとる。図2を参照しながら上記で説明されたように、このデフォルトの相対位置は、対象者の身体の姿勢、対象者の1つ又は複数の顔の特徴、対象者の身長などの要因に基づく。
その上、図2を参照しながら上記で説明されたように、アクティブ・ウィンドウの相対位置は、対象者の身体部位の現在の向き、対象者の身体部位の現在の位置、対象者の身体部位の現在の動き、及び対象者の第2の生物学的パラメータの現在のレベルのうちの少なくとも1つに関連付けられた要件に応じて適合又は調節される。これらの要件は、対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる変化する条件に応じて変動する。例えば、アクティブ・ウィンドウの相対位置は、対象者の頭を右の方に動かすように対象者を誘発するために、(右への方向によって表された)「東」に、すなわちデフォルトの相対位置(「位置0」)から新しい位置(「位置1」)にシフトされる。同様に、アクティブ・ウィンドウの相対位置は、対象者の頭を下の方に(及び左の方に)傾けるように対象者を誘発するために、(下方向によって表された)「南」又は(左への方向と共に下方向によって表された)「南西」に、すなわちデフォルトの相対位置(「位置0」)から新しい位置(「位置2」又は「位置3」)に、シフトされる。上記で説明されたように、図3に示されたような相対位置のシフトは比較的小さいので、変化は、対象者によって知覚可能なものではない。
したがって、ガイダンスを対象者に提供するように構成された改善されたシステム、及びシステムを制御する方法が提供され、これらは既存の問題を克服する。本明細書で説明されるようなシステム及び方法を使用して生成されたガイダンスは、特定のアクションを実施するように直接求められるのではなく、データ収集に適した特定のやり方で移動する又はふるまうように、対象者が巧みに「説得される」ので、目立ちすぎないように及び偏在的であるように、データ収集を実施することを可能にする。「説得」(ガイダンス)は、対象者によって実施されている現在の活動に基づいて決定され、データ収集の理想的な状態が望まれる場合に対象者からの自発的な協力を必要とする。対象者によって必要とされる適合は、物理的又は精神的に要求することではないので、生成されたガイダンスが、何らかのじゃま又はいらだちを対象者に生じさせず、したがって協力を促進できることが期待される。本開示のコンテキストでは、「目立ちすぎないように及び偏在的であるように」は、知覚可能なガイダンスを必ずしも除外しないことに留意されたい。いくつかの事例では、生成されたガイダンスは、対象者によって知覚可能である。
コンピュータ可読媒体を備えるコンピュータ・プログラム製品も提供され、コンピュータ可読媒体は、コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、コンピュータ可読コードは、適切なコンピュータ又はプロセッサによる実行時、本明細書で説明される1つ又は複数の方法を実施することをコンピュータ又はプロセッサに行わせるように構成される。したがって、本開示は、コンピュータ・プログラム、特に、実施形態を実践するように適合された、キャリア上又は内のコンピュータ・プログラムにも適用されることが理解されよう。プログラムは、ソース・コード、オブジェクト・コード、コード中間ソース、及び、部分的にコンパイルされた形式、又は本明細書で説明される実施形態による方法の実施時の使用に適した任意の他の形式などの、オブジェクト・コードの形である。
このようなプログラムが多くの異なるアーキテクチャ・デザインを有することも認識されよう。例えば、方法又はシステムの機能を実施するプログラム・コードは、1つ又は複数のサブルーチンに再分割される。これらのサブルーチンの間に機能を分散させる多くの異なるやり方が、当業者には明らかであろう。サブルーチンは、自己完結型プログラムを形成するために、1つの実行可能ファイルに一緒に格納される。このような実行可能ファイルは、例えば、プロセッサ命令及び/又はインタープリタ命令(例えばJavaインタープリタ命令)などの、コンピュータ実行可能命令を有する。代替として、サブルーチンの1つ若しくは複数又は全てが少なくとも1つの外部ライブラリ・ファイルに格納され、例えば実行時に、メイン・プログラムと静的又は動的にリンクされる。メイン・プログラムは、サブルーチンのうちの少なくとも1つへの少なくとも1つのコールを収める。サブルーチンは、互いへのファンクション・コールも有する。
コンピュータ・プログラム製品に関する実施形態は、本明細書で示された方法のうちの少なくとも1つの各処理ステージに対応するコンピュータ実行可能命令を有する。これらの命令は、サブルーチンに再分割され、及び/又は、静的若しくは動的にリンクされた1つ又は複数のファイルに格納される。コンピュータ・プログラム製品に関する別の実施形態は、本明細書で示されたシステム及び/又は製品のうちの少なくとも1つの各手段に対応するコンピュータ実行可能命令を有する。これらの命令は、サブルーチンに再分割され、及び/又は、静的若しくは動的にリンクされた1つ又は複数のファイルに格納される。
コンピュータ・プログラムのキャリアは、プログラムを搬送することができる任意のエンティティ又はデバイスである。例えば、キャリアは、例えばCD ROM若しくは半導体ROMなどのROM、又は例えばハードディスクなどの磁気記録媒体などの、データ・ストレージを含む。さらに、キャリアは、電気若しくは光ケーブルを介して、又は無線若しくは他の手段によって伝えられる、電気又は光信号などの伝送可能なキャリアである。プログラムがこのような信号で具体化されるとき、キャリアは、このようなケーブル又は他のデバイス若しくは手段によって構成される。代替として、キャリアは、プログラムが組み込まれた集積回路であり、集積回路は、関連した方法を実施するように適合されるか、関連した方法の実施時に使用される。
開示の実施形態に対する変形形態は、特許請求された発明を実践する際に、図面、本開示、及び添付の特許請求の範囲の検討から、当業者によって理解及び実施されることが可能である。特許請求の範囲において、単語「備える」は、他の要素又はステップを除外せず、単数形は、複数を除外しない。単一のプロセッサ又は他のユニットは、特許請求の範囲に列挙された、いくつかの項目の機能を実現させる。特定の措置が相互に異なる従属請求項に列挙されるという単なる事実は、これらの措置の組合せを都合よく使用できないことを示しているわけではない。コンピュータ・プログラムは、他のハードウェアと一緒に又はその一部として供給された光ストレージ媒体又はソリッドステート媒体などの、適切な媒体に格納/配布されるが、インターネット又は他の有線若しくはワイヤレス・テレコミュニケーション・システムを介するなどして、他の形式でも配布される。特許請求の範囲におけるどの参照符号も、範囲を限定するものと解釈されるべきではない。
Claims (14)
- ガイダンスを対象者に提供するシステムを制御するためのコンピュータ実施方法であって、前記コンピュータ実施方法が、
前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するステップと、
前記1つ又は複数の条件に基づいて、前記対象者の身体部位の向き、前記対象者の身体部位の位置、前記対象者の身体部位の動き、及び前記対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定するステップと、
前記1つ又は複数の要件に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の動き、前記対象者の前記身体部位の現在の位置、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するステップと、
それぞれの前記要件及びそれぞれの前記要件に関連付けられた獲得された情報に基づいて、前記対象者の前記身体部位の向き、前記対象者の前記身体部位の位置、及び前記対象者の前記第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定するステップと、
前記対象者のためのガイダンスを生成するステップであって、
前記システムのユーザ・インターフェースによって出力されることになる指向性音響効果を生成するステップであって、前記指向性音響効果が、前記必要な調節を実現するように前記対象者を誘発する、生成するステップ、及び
前記必要な調節を実現するように前記対象者を誘発するように、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定するステップであって、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の前記属性が、前記視覚要素の視野角、前記視覚要素の視深度、前記視覚要素の視距離、及び前記視覚要素のサイズのうちの少なくとも1つを有する、ステップ
のうちの少なくとも1つを実施することによって、決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成するステップと
を有する、コンピュータ実施方法。 - 前記視覚要素の相対位置が、座標によって表され、前記システムの1つ又は複数の検知ユニットに対する前記視覚要素の位置を示し、前記システムのユーザ・インターフェースによって出力されることになる前記視覚要素の少なくとも相対位置を決定するステップが、前記視覚要素の前記座標を決定するステップを有する、請求項1に記載のコンピュータ実施方法。
- ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することが、前記第1の生物学的パラメータにさらに基づく、請求項1又は2に記載のコンピュータ実施方法。
- 決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成するステップが、指向性音響効果を生成するステップを有し、前記方法が、前記指向性音響効果の属性を決定するステップをさらに有する、請求項1から3のいずれか一項に記載のコンピュータ実施方法。
- 前記対象者の第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得するステップの前に、
前記対象者、前記対象者によって使用されるデバイス、及び前記対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得するステップと、
獲得された前記初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定するステップと
というステップをさらに有し、
前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる1つ又は複数の条件を獲得するステップは、獲得された前記初期データが、前記所定の閾値より高い正確さのレベル、及び前記所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分でないと決定すると実施される、
請求項1から4のいずれか一項に記載のコンピュータ実施方法。 - 獲得された前記初期データが、前記対象者の好みに関連付けられたデータ、前記対象者の環境に関連付けられたデータ、前記対象者によって使用されるデバイスの使用データ、前記対象者によって使用されるアプリケーション・プログラムの使用データ、前記第2の生物学的パラメータの値、前記第1の生物学的パラメータに関連付けられた前記対象者の身体部位の画像データ、及び前記対象者、前記対象者の環境、前記対象者によって使用されるデバイス、又は対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つによって生成された音響データのうちの少なくとも1つを有する、請求項5に記載のコンピュータ実施方法。
- 前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得するステップが、
前記対象者の前記身体部位の画像及び前記対象者の前記環境の音のうちの少なくとも1つを獲得するステップと、
前記対象者の獲得された画像及び前記環境の音のうちの前記少なくとも1つの分析を実施することによって、前記対象者の前記身体部位の1つ又は複数の物理的特徴を検出するステップと、
検出された前記1つ又は複数の物理的特徴に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの前記少なくとも1つを決定するステップと
を有する、請求項1から6のいずれか一項に記載のコンピュータ実施方法。 - 生成された前記ガイダンスに応じて前記対象者からのフィードバックを獲得するステップであって、前記フィードバックが、前記対象者の前記身体部位の動き及び前記対象者の第3の生物学的パラメータのうちの少なくとも1つに関連付けられる、獲得するステップと、
獲得された前記フィードバックに基づいて前記ガイダンスの更新が必要であるかどうかを決定するステップと、
前記ガイダンスの更新が必要であると決定されたとき、前記対象者のための新しいガイダンスを生成するステップと
をさらに有する、請求項1から7のいずれか一項に記載のコンピュータ実施方法。 - 生物学的パラメータが、前記対象者の前記生理学的状態及び前記対象者の前記心理的状態のうちの1つに関連付けられる、請求項1から8のいずれか一項に記載のコンピュータ実施方法。
- 前記対象者の第1の生物学的パラメータを分析するのに必要な前記データが、前記対象者の前記身体部位の1つ又は複数の画像を有し、前記対象者の第1の生物学的パラメータを分析するのに必要なデータがキャプチャされることになる前記1つ又は複数の条件のそれぞれが、前記1つ又は複数の画像の鮮明さ、前記対象者の前記身体部位の照明のレベル、1つ又は複数の画像がキャプチャされる角度、及びその間に前記1つ又は複数の画像がキャプチャされる前記ユーザによって実施される活動のうちの少なくとも1つに関連付けられる、請求項1から9のいずれか一項に記載のコンピュータ実施方法。
- コンピュータ可読媒体を備えるコンピュータ・プログラムであって、前記コンピュータ可読媒体が、前記コンピュータ可読媒体において具体化されたコンピュータ可読コードを有し、前記コンピュータ可読コードが、適切なコンピュータ又はプロセッサによる実行時、請求項1から10のいずれか一項に記載の方法を実施することをコンピュータ又はプロセッサに行わせる、コンピュータ・プログラム。
- ガイダンスを対象者に提供するように構成されたシステムであって、前記システムが、
1つ又は複数の視覚又は聴覚要素を出力するユーザ・インターフェースと、
対象者の第1の生物学的パラメータを分析するのに必要なデータをキャプチャする検知ユニットと、
制御ユニットとを備え、前記制御ユニットは、
前記第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得すること、
前記1つ又は複数の条件に基づいて、前記対象者の身体部位の向き、前記対象者の身体部位の位置、前記対象者の身体部位の動き、及び前記対象者の第2の生物学的パラメータのレベルのうちの少なくとも1つに関連付けられた1つ又は複数の要件を決定すること、
前記1つ又は複数の要件に基づいて、前記対象者の前記身体部位の現在の向き、前記対象者の前記身体部位の現在の位置、前記対象者の前記身体部位の現在の動き、及び前記対象者の前記第2の生物学的パラメータの現在のレベルのうちの少なくとも1つを獲得すること、
それぞれの前記要件及びそれぞれの前記要件に関連付けられた獲得された情報に基づいて、前記対象者の前記身体部位の向き、前記対象者の前記身体部位の位置、及び前記対象者の前記第2の生物学的パラメータのうちの少なくとも1つの必要な調節を決定すること、
前記対象者のためのガイダンスを生成することであって、
前記ユーザ・インターフェースによって出力されることになる指向性音響効果を生成することであって、前記指向性音響効果が、前記必要な調節を実現するように前記対象者を誘発する、生成すること、及び
前記必要な調節を実現するように前記対象者を誘発するように、前記ユーザ・インターフェースによって出力されることになる視覚要素の相対位置及び属性のうちの少なくとも1つを決定することであって、前記システムのユーザ・インターフェースによって出力されることになる視覚要素の属性が、前記視覚要素の視野角、前記視覚要素の視深度、前記視覚要素の視距離、及び前記視覚要素のサイズのうちの少なくとも1つを有する、決定すること
のうちの少なくとも1つを実施することによって、決定された前記必要な調節に基づいて前記対象者のためのガイダンスを生成すること
を行う、システム。 - 前記制御ユニットが、必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得することの前に、前記対象者、前記対象者によって使用されるデバイス、及び前記対象者によって使用されるアプリケーション・プログラムのうちの少なくとも1つに関連付けられた初期データを獲得することと、獲得された前記初期データが、所定の閾値より高い正確さのレベル、及び所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分であるかどうかを決定することとをさらに行い、
前記制御ユニットが、獲得された前記初期データが、前記所定の閾値より高い正確さのレベル、及び前記所定の閾値より高いスピードのレベルのうちの少なくとも1つで前記第1の生物学的パラメータの分析を実施するのに十分でないと決定されたとき、前記対象者の前記第1の生物学的パラメータを分析するのに必要な前記データがキャプチャされることになる1つ又は複数の条件を獲得する、
請求項11に記載のシステム。 - 入射光を反射する反射構成要素、及び、請求項12から13のいずれか一項に記載のシステムを備える、デバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020083343 | 2020-04-03 | ||
CNPCT/CN2020/083343 | 2020-04-03 | ||
EP20172496.0A EP3903668A1 (en) | 2020-04-30 | 2020-04-30 | A system for providing guidance |
EP20172496.0 | 2020-04-30 | ||
PCT/EP2021/057657 WO2021197985A1 (en) | 2020-04-03 | 2021-03-25 | A system for providing guidance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023520448A true JP2023520448A (ja) | 2023-05-17 |
JPWO2021197985A5 JPWO2021197985A5 (ja) | 2024-04-03 |
Family
ID=75108348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022559882A Pending JP2023520448A (ja) | 2020-04-03 | 2021-03-25 | ガイダンスを提供するためのシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230112939A1 (ja) |
EP (1) | EP4125551A1 (ja) |
JP (1) | JP2023520448A (ja) |
CN (1) | CN115484862A (ja) |
WO (1) | WO2021197985A1 (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011054158A1 (zh) | 2009-11-09 | 2011-05-12 | 天津九安医疗电子股份有限公司 | 一种能指示正确测量位置的电子血压计 |
JP5541407B1 (ja) * | 2013-08-09 | 2014-07-09 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
TW201540264A (zh) * | 2014-04-18 | 2015-11-01 | Sony Corp | 資訊處理裝置、資訊處理方法、及程式 |
JP6619202B2 (ja) * | 2015-10-29 | 2019-12-11 | 株式会社トプコン | 眼科撮影装置 |
JP2017209486A (ja) * | 2016-05-19 | 2017-11-30 | パナソニックIpマネジメント株式会社 | 血圧計測装置 |
CN115281605A (zh) * | 2017-10-30 | 2022-11-04 | 威里利生命科学有限责任公司 | 眼底相机和操作眼底相机的方法 |
EP3749186A1 (en) * | 2018-02-06 | 2020-12-16 | Huma Therapeutics Limited | Non-invasive continuous blood pressure monitoring |
KR102590026B1 (ko) * | 2018-07-12 | 2023-10-13 | 삼성전자주식회사 | 신호 측정 장치 및 방법과, 생체정보 측정 장치 |
-
2021
- 2021-03-25 WO PCT/EP2021/057657 patent/WO2021197985A1/en active Application Filing
- 2021-03-25 CN CN202180026964.1A patent/CN115484862A/zh active Pending
- 2021-03-25 EP EP21713058.2A patent/EP4125551A1/en active Pending
- 2021-03-25 US US17/914,940 patent/US20230112939A1/en active Pending
- 2021-03-25 JP JP2022559882A patent/JP2023520448A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4125551A1 (en) | 2023-02-08 |
WO2021197985A1 (en) | 2021-10-07 |
CN115484862A (zh) | 2022-12-16 |
US20230112939A1 (en) | 2023-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112034977B (zh) | Mr智能眼镜内容交互、信息输入、应用推荐技术的方法 | |
US11726324B2 (en) | Display system | |
Cernea et al. | A survey of technologies on the rise for emotion-enhanced interaction | |
WO2016165052A1 (en) | Detecting facial expressions | |
JP2016126500A (ja) | ウェアラブル端末装置およびプログラム | |
US11782508B2 (en) | Creation of optimal working, learning, and resting environments on electronic devices | |
US20240152208A1 (en) | Brain-computer interface | |
Wahl et al. | Personalizing 3D-printed smart eyeglasses to augment daily life | |
JP2023052235A (ja) | 出力制御装置、出力制御方法およびプログラム | |
WO2017016941A1 (en) | Wearable device, method and computer program product | |
US20230282080A1 (en) | Sound-based attentive state assessment | |
US20230112939A1 (en) | A system for providing guidance | |
EP3903668A1 (en) | A system for providing guidance | |
JPWO2020016970A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Peters et al. | Modelling user attention for human-agent interaction | |
Matthies et al. | Wearable Sensing of Facial Expressions and Head Gestures | |
KR102564202B1 (ko) | 사용자의 스트레스 완화를 위해 상호작용하는 가상동물을 제공하는 전자장치 및 이의 제어방법 | |
WO2023114079A1 (en) | User interactions and eye tracking with text embedded elements | |
US20240164677A1 (en) | Attention detection | |
US20230418372A1 (en) | Gaze behavior detection | |
US20240005537A1 (en) | User representation using depths relative to multiple surface points | |
US20240164672A1 (en) | Stress detection | |
Vora et al. | Gaze-contingent Screen Adjustment | |
Nakamura | Embedded Facial Surface Sensing and Stimulation: Toward Facial Surface Interaction in Virtual Environment | |
WO2023049089A1 (en) | Interaction events based on physiological response to illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240322 |